N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®
Het voelt nu echter aan alsof allebei partijen een andere richting op willen gaan. Ik ben dan ook benieuwd of we in de toekomst steeds meer verschillen in prestaties tussen de twee gaan zien in games, afhankelijk voor welk van de twee de game is geoptimaliseerd.
Recent voorbeeld hiervan is The Witcher 3 die met een Nvidia gpu gewoon een stuk beter presteert.
Als die effecten bij toekomstige games nog verder toe gaan nemen dan lijkt me dat een zeer ongelukkige ontwikkeling. Dat zal er voor zorgen dat Nvidia danwel AMD zal omvallen of dat er echt een splitsing ontstaat. Waarschijnlijk zal het dat eerste zijn en dan vermoed ik dat AMD het onderspit zal delven omdat ze nu al flink achterlopen.
Dan zet je Hairworks uit en heb je alsnog een prima game.Tsux schreef op woensdag 09 december 2015 @ 11:16:
Nou die rivaliteit tussen Nvidia en AMD (of ATI destijds geloof ik) is natuurlijk niets nieuws, dat begrijp ik wel.
Het voelt nu echter aan alsof allebei partijen een andere richting op willen gaan. Ik ben dan ook benieuwd of we in de toekomst steeds meer verschillen in prestaties tussen de twee gaan zien in games, afhankelijk voor welk van de twee de game is geoptimaliseerd.
Recent voorbeeld hiervan is The Witcher 3 die met een Nvidia gpu gewoon een stuk beter presteert.
Als die effecten bij toekomstige games nog verder toe gaan nemen dan lijkt me dat een zeer ongelukkige ontwikkeling. Dat zal er voor zorgen dat Nvidia danwel AMD zal omvallen of dat er echt een splitsing ontstaat. Waarschijnlijk zal het dat eerste zijn en dan vermoed ik dat AMD het onderspit zal delven omdat ze nu al flink achterlopen.
Die hele "wig" wordt ver overtrokken. Op een PC heb je toch juist de keuze, twee klikjes in de settings en je kunt door.
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
Intel heeft nog altijd het grootste marktaandeel (ook bij de videokaarten) dus dat zal wel mee vallenTsux schreef op woensdag 09 december 2015 @ 09:45:
Merci, heb e.e.a. doorgelezen. Wel vervelend dat die wig tussen AMD en Nvidia groter lijkt te worden... Ik hoop toch niet dat we later AMD of Nvidia exclusive games gaan krijgen... Dat zou echt heel slecht zijn voor PC gaming.
- Je koopt een Nvidia kaart
- Je verlaagt details (hairworks etc)
- Je accepteert een lagere frame rate
[ Voor 3% gewijzigd door sdk1985 op 09-12-2015 15:27 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
- Geen games met GameWorks of dubieuze optimalisaties te kopen
- Systeem-verkreupelende "features" uitschakelen
- Een grafische kaart te kopen naar zijn prijs/prestatie ipv. "auto-buy merk X of Y"
- Watch Dogs --> GameWorks
- Assassin's Creed Unity --> GameWorks
- Batman: Arkham Knight --> GameWorks
Alle drie deze games hadden GameWorks technieken die op alles behalve Maxwell 2 slecht liepen, om de extreem slechte staat van alle drie de games bij launch nog maar te zwijgen. Gelukkig is het niet altijd zo extreem, bv. GTA V heeft ook een paar GameWorks features die uit kunnen. Daar draait het spel "slechts" minder goed op AMD door de GameWorks clausule die inkijk van concurrenten verbiedt, belangrijk voor optimalisatie.
Bijna alleen daarom zou ik al AMD kopen.Phuncz schreef op woensdag 09 december 2015 @ 18:37:
Of als klant die aan zijn toekomst denkt:
[...]
Mijn oog is al lang gevallen op de R9 380. Simpelweg omdat deze mijns inziens de beste prijs-kwaliteitverhouding levert. Overigens wil ik nog even afwachten met de aanschaf of de R9 380X de prijs van de "normale" 380 iets naar beneden gaat drukken.
En inderdaad... Wat een drama games noem je daar op...

Ik vind het vooral jammer dat de verhouding van marktaandeel nu zo enorm scheef is in nvidia's voordeel, terwijl amd toch een iets betere price/perfomance biedt. Ze trekken wat meer stroom, maar de meeste mensen hebben toch een overkill psu.
Mechwarrior Online: Flapdrol
Wikipedia: List of Game of the Year awards
[ Voor 28% gewijzigd door dahakon op 09-12-2015 22:19 ]
Je kan het beter de devs kwalijk nemen zij willen GameWorks gebruiken voor water vuur haar destruction etc etc zonder er zelf iets voor te hoeven doen zo uit de 'black' box.Phuncz schreef op woensdag 09 december 2015 @ 18:37:
Of als klant die aan zijn toekomst denkt:Waarom mijn afkeer voor GameWorks ? Zullen we eens naar de drie recentste, grootste drollen (die men als game verkocht) kijken:
- Geen games met GameWorks of dubieuze optimalisaties te kopen
- Systeem-verkreupelende "features" uitschakelen
- Een grafische kaart te kopen naar zijn prijs/prestatie ipv. "auto-buy merk X of Y"
- Watch Dogs --> GameWorks
- Assassin's Creed Unity --> GameWorks
- Batman: Arkham Knight --> GameWorks
Alle drie deze games hadden GameWorks technieken die op alles behalve Maxwell 2 slecht liepen, om de extreem slechte staat van alle drie de games bij launch nog maar te zwijgen. Gelukkig is het niet altijd zo extreem, bv. GTA V heeft ook een paar GameWorks features die uit kunnen. Daar draait het spel "slechts" minder goed op AMD door de GameWorks clausule die inkijk van concurrenten verbiedt, belangrijk voor optimalisatie.
Watchdogs draait net zo goed op de R9 290X als op de GTX780TI meeste gameworks spul kon je ook uit zetten (ik heb zelf nog nooit zo'n k-spel gespeeld)
Assassins creed met gelijke settings draait de R9 390 1.6fps sneller dan de GTX 970.
''Nvidia's GameWorks and QA teams are helping fix Batman: Arkham Knight''
Tom Petersen, a "distinguished engineer" at Nvidia, told MMORPG.com that its GameWorks and QA teams are "fixing a ton of things, that are not necessarily related to us."
"They made a few mistakes in getting the game out, it wasn't fully performance-optimized for PC. So now we're deploying our QA resources and our engineers to make that game as good as it can possibly be," Petersen said. "
Nvidia heeft resources om ontwikkelaars werk uit handen te nemen en ontwikkelaars maken daar gebruik van het is zo simpel en je hebt ook zo iets als return of investment, het kan dat de optimalisatie die zij moeten uitvoeren voor de 20% AMD kaart gebruikers zich niet terug verdiend, en zelfs kan het zo zijn dat PC ontwikkelaars het liefst AMD helemaal links zouden willen laten liggen.
Ik vind het ook lijken of AMD zelf een beetje schijt aan zijn users heeft gekregen waar de HD7970 en de R9 290X rond de €450-500 waren bij launch en snel naar de €400-ish gingen en de HD7950 en
R9 290 rond de €350. Nu is de high end €560 en €690.
Is de dollarkoers.Nature schreef op woensdag 09 december 2015 @ 22:50:
[...]
Ik vind het ook lijken of AMD zelf een beetje schijt aan zijn users heeft gekregen waar de HD7970 en de R9 290X rond de €450-500 waren bij launch en snel naar de €400-ish gingen en de HD7950 en
R9 290 rond de €350. Nu is de high end €560 en €690.
Maar goed, met deze prijzen wacht ik ook liever de schrink naar 16nm af.
Mechwarrior Online: Flapdrol
Daar ligt het niet aan, de adviesprijs bij launch v/d R9 290X was $550 en R9 290 $400 en de adviesprijs v/d Fury (non X) is €550 en de Fury X €650.haarbal schreef op woensdag 09 december 2015 @ 22:52:
[...]
Is de dollarkoers.
Maar goed, met deze prijzen wacht ik ook liever de schrink naar 16nm af.
De GTX 980 TI heeft dezelfde adviesprijs als de GTX 780 TI had namelijk $650. AMD heeft gewoon flink de prijs verhoogd, met de pricewatch heb je eigenlijk nooit meer dan €500 hoeven te betalen voor de R9 290x en binnen een jaar zat hij rond de €400
Anoniem: 59888
Het kan ook zo zijn dat morgen alle varkens ineens kunnen vliegen...Nature schreef op woensdag 09 december 2015 @ 22:50:
[...]
het kan dat de optimalisatie die zij moeten uitvoeren voor de 20% AMD kaart gebruikers zich niet terug verdiend, en zelfs kan het zo zijn dat PC ontwikkelaars het liefst AMD helemaal links zouden willen laten liggen.
Wat je hier neerpent is volledig uit de lucht gegrepen speculatie. Het is nog steeds zo dat niemand GPU accelerated PhysX wil gebruiken omdat het niet op AMD kaarten draait. Geen enkele uitgever gaat zomaar een derde van de markt negeren, om het maar helemaal niet te hebben over de negatieve publiciteit die dat op zou leveren.
Nvidia speelt met gameworks hetzelfde spelletje als ze altijd gedaan hebben. Met een flinke zak geld uitgevers overhalen derde-rangs technologie in te bouwen die niet op AMD kaarten draait om zo te proberen AMD uit de markt te drukken. En dat terwijl er vrijwel altijd alternatieven zijn die ook op AMD kaarten werken en op Nvidia kaarten betere resultaten geven. Zijn die er niet dan is zelfs een flinke zak geld niet genoeg. Ik noemde GPU-accelerated PhysX al, geen hond die dat gebruikt.
De prijzen stijgen bij beide fabrikanten al jaren, dat heeft niets met 'schijt aan zijn users hebben' te maken. In 2008 kocht ik een HD4870 (toen high-end) voor 230 euro, daar koop je nu amper nog een mainstream kaart voor. Jammer voor de consument, maar die prijzen zijn gewoon niet haalbaar meer.Nature schreef op woensdag 09 december 2015 @ 22:50:
[...]
Ik vind het ook lijken of AMD zelf een beetje schijt aan zijn users heeft gekregen waar de HD7970 en de R9 290X rond de €450-500 waren bij launch en snel naar de €400-ish gingen en de HD7950 en
R9 290 rond de €350. Nu is de high end €560 en €690.
Op het moment al dubbel zo veel Freesync monitors als Gsync monitors, met zo meteen de toevoeging van Freesync via HDMI (1.4a en 2.0) zal dat alleen maar meer worden. Filmpje met wat meer uitleg, let op is natuurlijk reclame voor AMD
Ander leuk nieuws is dat zo meteen HDR een feit wordt voor beeldschermen. Wat het filmpje op het AMD youtube kanaal niet goed weet uit te leggen helaas

Tja dan keer je de hobby om. Normaal staat je gpu in dienst van je hobby (gamen) en dan gaat het toch echt om de gameplay. Dus stel ik ben enorm fan van The Witcher (is niet zo) en ik speel die game elke dag (is ook niet zo) dan zal ik dat toch echt mee nemen in mijn aankoop beslissing (dat is wel zo). Daarom een merk en een game juist niet kopen is een omgekeerde realiteit.Phuncz schreef op woensdag 09 december 2015 @ 18:37:
Of als klant die aan zijn toekomst denkt:Waarom mijn afkeer voor GameWorks ? Zullen we eens naar de drie recentste, grootste drollen (die men als game verkocht) kijken:
- Geen games met GameWorks of dubieuze optimalisaties te kopen
- Systeem-verkreupelende "features" uitschakelen
- Een grafische kaart te kopen naar zijn prijs/prestatie ipv. "auto-buy merk X of Y"
- Watch Dogs --> GameWorks
- Assassin's Creed Unity --> GameWorks
- Batman: Arkham Knight --> GameWorks
Alle drie deze games hadden GameWorks technieken die op alles behalve Maxwell 2 slecht liepen, om de extreem slechte staat van alle drie de games bij launch nog maar te zwijgen. Gelukkig is het niet altijd zo extreem, bv. GTA V heeft ook een paar GameWorks features die uit kunnen. Daar draait het spel "slechts" minder goed op AMD door de GameWorks clausule die inkijk van concurrenten verbiedt, belangrijk voor optimalisatie.
Overigens was Watch Dogs bij mij prima te pruimen, alleen niet op de aller hoogste details. Is verder niet erg want dat ging bijvoorbeeld bij GTA IV destijds (zonder gameworks) precies hetzelfde. Sommige games zijn gewoon wat vooruitstrevender. Dat kan ik alleen maar toejuichen. De zeurpieten die er niet tegen kunnen dat de game bij hun niet 60 fps op ultra draait kunnen beter genegeerd worden, anders zaten we nu nog op 640x480 Unreal Tournament 1999 te spelen. Dat de andere twee games buggy zijn lijkt mij niets met gameworks te maken hebben.
Gameworks is een tool voor developpers om makkelijk bepaalde effecten in je game te krijgen, zonder dat je het wiel hoeft uit te vinden. Het is een soort api. Als klap op de vuurpijl komen er ook nog Nvidia devs bij je langs om te helpen met de implementatie. Dus het is an sich niet vreemd dat het aanslaat (bij de developpers).
Als de effecten niet uit kunnen dan moet je met een schuin ook naar de devs kijken die de implementatie hebben afgeraffeld en niet zozeer naar gameworks zelf.
[ Voor 5% gewijzigd door sdk1985 op 10-12-2015 00:44 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Met een flinke zak geld dat heb ik wel vaker gehoord alleen heeft nog nooit iemand een mail fax bon brief of wat dan ook gezien wat dat impliceert, ook is er in al die tijd nooit iemand uit de school geklapt terwijl dat onvermijdelijk zou zijn.Anoniem: 59888 schreef op donderdag 10 december 2015 @ 00:01:
Nvidia speelt met gameworks hetzelfde spelletje als ze altijd gedaan hebben. Met een flinke zak geld uitgevers overhalen derde-rangs technologie in te bouwen die niet op AMD kaarten draait om zo te proberen AMD uit de markt te drukken. En dat terwijl er vrijwel altijd alternatieven zijn die ook op AMD kaarten werken en op Nvidia kaarten betere resultaten geven. Zijn die er niet dan is zelfs een flinke zak geld niet genoeg. Ik noemde GPU-accelerated PhysX al, geen hond die dat gebruikt.
List of games with hardware-accelerated PhysX support
De GTX 280 was weer die $650 8800GTX was $650 en de 8800 ultra zelfs $830, en zo kan je wel verder terug. AMD is altijd goedkoop geweest dat was juist hun selling point, mijn HD4870 1GB kocht ik voor €40.*De prijzen stijgen bij beide fabrikanten al jaren, dat heeft niets met 'schijt aan zijn users hebben' te maken. In 2008 kocht ik een HD4870 (toen high-end) voor 230 euro, daar koop je nu amper nog een mainstream kaart voor. Jammer voor de consument, maar die prijzen zijn gewoon niet haalbaar meer.
Het was AMD's zet na de R9 290(x) uit 2013 om in 2015 met iets nieuws te komen maar wat ze hebben is duur en niemand heeft het, eigenlijk lijkt het ook wel een halo product gewoon iets om je spierballen te laten zien te weinig marge te hoge productie en materiaalkosten, en voor de massa rebrands.
*marktplaats
De GTX 960 had een MSRP van $199 dollar. De GTX 660 zat op $229, de GTX 460 op $200 ($230 voor 1 GB) en de GTX 260 $279. De 4870 zat op $299.Anoniem: 59888 schreef op donderdag 10 december 2015 @ 00:01:
De prijzen stijgen bij beide fabrikanten al jaren, dat heeft niets met 'schijt aan zijn users hebben' te maken. In 2008 kocht ik een HD4870 (toen high-end) voor 230 euro, daar koop je nu amper nog een mainstream kaart voor. Jammer voor de consument, maar die prijzen zijn gewoon niet haalbaar meer.
In realiteit zijn de fabrikanten dus flink goedkoper geworden. Zeker als je ook nog eens de inflatie meerekent. Die $299 dollar voor je 4870 zou nu $342.98 zijn. Wat vandaag neer komt op 311 euro. Dat is even andere koek dan de 230 euro die jij aanhaalt of niet?
Het is dus de euro dollar koers die is ingestort waardoor jij je vergist. In 2007 zaten we nog op 1,40 nu rond 1,10. Die 30% doet pijn.
[ Voor 5% gewijzigd door sdk1985 op 10-12-2015 00:54 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Anoniem: 59888
Dat is een kwestie van een keuze die je maakt. Het is maar net wat je belangrijk vind, een foute keuze is er niet.sdk1985 schreef op donderdag 10 december 2015 @ 00:41:
[...]
Tja dan keer je de hobby om. Normaal staat je gpu in dienst van je hobby (gamen) en dan gaat het toch echt om de gameplay. Dus stel ik ben enorm fan van The Witcher (is niet zo) en ik speel die game elke dag (is ook niet zo) dan zal ik dat toch echt mee nemen in mijn aankoop beslissing (dat is wel zo). Daarom een merk en een game juist niet kopen is een omgekeerde realiteit.
Watch Dogs was een desastreus verlopen project waarbij de ene na de andere deadline gemist werd. Uiteindelijk hebben ze op een zeker moment het spel maar op de markt gegooid, maar af was het nog niet. Veel optimalisaties ontbraken en er zaten nog heel veel bugs in.sdk1985 schreef op donderdag 10 december 2015 @ 00:41:
Overigens was Watch Dogs bij mij prima te pruimen, alleen niet op de aller hoogste details. Is verder niet erg want dat ging bijvoorbeeld bij GTA IV destijds (zonder gameworks) precies hetzelfde. Sommige games zijn gewoon wat vooruitstrevender.
GTA IV was een heel slecht geoptimaliseerde port van de Xbox 360 versie die drie CPU cores nodig had om lekker te lopen, in een tijd waarin dual core CPUs nog gemeengoed waren. Die port is zo slecht dat als het spel je GPU niet herkent hij de instellingen op z'n allerlaagst zet: 640x480 met alles op low. Dat zou geen ramp zijn, maar het settings menu wordt ook gelocked. Je moet een launch option meegeven om het spel zo ver te krijgen je de grafische opties in te laten stellen.


Kortom, twee voorbeelden van slecht werk. Dat heeft niets met vooruitstrevendheid te maken.
Eens, dat is gewoon een kwestie van te strakke deadlines/te veel haast waardoor een spel op de markt komt voordat alle bugs er uit zijn. Al is Arkham Knight wel een speciaal geval, na een half jaar hebben ze die nog steeds niet weten te fixen en hebben ze het min of meer opgegeven en kunnen mensen hun geld terug krijgen.sdk1985 schreef op donderdag 10 december 2015 @ 00:41:
Dat de andere twee games buggy zijn lijkt mij niets met gameworks te maken hebben.

Gameworks is middelware, dat gebruik je via een api. Daarbij hoef je inderdaad het wiel niet opnieuw uit te vinden, maar dat is bij andere middleware net zo. Dat is namelijk het hele idee van middleware.sdk1985 schreef op donderdag 10 december 2015 @ 00:41:
Gameworks is een tool voor developpers om makkelijk bepaalde effecten in je game te krijgen, zonder dat je het wiel hoeft uit te vinden. Het is een soort api. Als klap op de vuurpijl komen er ook nog Nvidia devs bij je langs om te helpen met de implementatie. Dus het is an sich niet vreemd dat het aanslaat (bij de developpers).
Dat Nvidia devs komen helpen is leuk, maar dat zou niet nodig moeten zijn. Daar komt bij dat de ontwikkelaar van de game hun code niet mag aanpassen of zelfs in mag zien. Je weet als ontwikkelaar dus niet wat Nvidia allemaal in je game stopt. Er zijn genoeg gevallen bekend waarbij bleek dat dat wel wat meer was dan alleen optimalisaties.

Dat is wel heel makkelijk geredeneerd. 'Als ik het niet zie is het er niet'. Er zijn al jaren een heleboel betrouwbare aanwijzingen. Bovendien moet je wel heel goedgelovig zijn om te denken dat als Nvidia zijnde wel even in de code van een game mag gaan rommelen zonder een flinke zak geld op tafel te leggen. Zo leuk zijn die effecten nou ook weer niet, bovendien heb je ze niet nodig om je game goed te laten verkopen. De tijd dat games met goede graphics altijd goed verkochten is voorbij, daar hebben de laatste twee jaar van de vorige console generatie definitief mee afgerekend.Nature schreef op donderdag 10 december 2015 @ 00:44:
[...]
Met een flinke zak geld dat heb ik wel vaker gehoord alleen heeft nog nooit iemand een mail fax bon brief of wat dan ook gezien wat dat impliceert, ook is er in al die tijd nooit iemand uit de school geklapt terwijl dat onvermijdelijk zou zijn.
Sinds 2005 tussen de vier en zes games per jaar met twee uitschieters naar 8 en 11. Op het totaal aantal AAA games dat per jaar uit komt is dat drie keer niks.
Dat is een bekend verhaal. Men had verwacht nu al op een kleiner procedé te kunnen produceren maar dat procedé is mislukt en dus niet beschikbaar. AMD kan die chips wel ontwerpen maar ze kunnen domweg niet gefabriceerd worden. Volgend jaar zou de volgende node moeten komen en naar verwachting wordt er dan wel een grote sprong gemaakt, zowel door AMD als door Nvidia.Nature schreef op donderdag 10 december 2015 @ 00:44:
Het was AMD's zet na de R9 290(x) uit 2013 om in 2015 met iets nieuws te komen maar wat ze hebben is duur en niemand heeft het, eigenlijk lijkt het ook wel een halo product gewoon iets om je spierballen te laten zien te weinig marge te hoge productie en materiaalkosten, en voor de massa rebrands.
De HD4870 was de op een na snelste kaart van zijn generatie. Alleen de HD 4870 X2 was (uiteraard) sneller, dat was een dual-GPU kaart. Als je de 4870 met een kaart van nu gaat vergelijken moet je het in de buurt van de Fury (non-X) of GTX 980 (non-TI) zoeken. Die kosten allebei 500+ euro. Je hebt helemaal gelijk dat inflatie en de dollarkoers een rol spelen, maar ook als je dat meerekent kun je nu voor dat bedrag geen high-end kaart meer kopen. Je betaalt nu dus flink meer voor een high-end kaart dan toen.sdk1985 schreef op donderdag 10 december 2015 @ 00:51:
[...]
De GTX 960 had een MSRP van $199 dollar. De GTX 660 zat op $229, de GTX 460 op $200 ($230 voor 1 GB) en de GTX 260 $279. De 4870 zat op $299.
In realiteit zijn de fabrikanten dus flink goedkoper geworden. Zeker als je ook nog eens de inflatie meerekent. Die $299 dollar voor je 4870 zou nu $342.98 zijn. Wat vandaag neer komt op 311 euro. Dat is even andere koek dan de 230 euro die jij aanhaalt of niet?
Het is dus de euro dollar koers die is ingestort waardoor jij je vergist. In 2007 zaten we nog op 1,40 nu rond 1,10. Die 30% doet pijn.
Overigens was 2008 wel zo'n beetje de bodem qua GPU-prijzen. Het ging me er meer om dat de prijzen sindsdien iedere generatie gestegen zijn, bij beide fabrikanten. Er is dus geen sprake van 'schijt hebben aan je users' door AMD, zoals beweerd werd.
Welke idioot gaat er nou midden in de nacht de tijd nemen voor zo'n lange post als deze. Ik zou zelf amper de moeite nemen het allemaal te lezen.

[ Voor 3% gewijzigd door Anoniem: 59888 op 10-12-2015 02:32 ]
Kijk dan eerst eens rustig naar de objectieve feiten.Nature schreef op woensdag 09 december 2015 @ 23:34:
Daar ligt het niet aan, de adviesprijs bij launch v/d R9 290X was $550 en R9 290 $400 en de adviesprijs v/d Fury (non X) is €550 en de Fury X €650.
1. Fiji is bijna 2 keer zo groot als Hawaii. De chip alleen al kost dus meer om te maken.
2. Fury kaarten gebruiken een geheel nieuw geheugensysteem, welke nu nog duurder is.
3. Fury kaarten gebruiken een geheel nieuw packaging, welke nu nog moeilijker en duurder is.
Uiteindelijk zullen punt 2 en 3 in de toekomst, wanneer deze massaler toegepast gaan worden, goedkoper worden dan het nu gangbare gDDR5 met complexer PCB, maar momenteel is dat dus nog niet het geval.
Dus is het dan gek dat AMD meer geld vraagt voor een product dat op een aantal belangrijke onderdelen gewoonweg (veel) meer kost om te maken? Blijkbaar is het prima dat nVidia veel meer geld vraagt voor zijn producten met grotere die, maar als AMD dat doet is het opeens krankzinnig?
Mee eens ik vind het raar dat het zo omgeslagen is. Eerst was het eerder 55% vs 45% dat is in mijn ogen ook geen gezondere verhouding.haarbal schreef op woensdag 09 december 2015 @ 21:20:
Maar the witcher 3 heeft ook gameworks, en dat is de game van het jaar.
Ik vind het vooral jammer dat de verhouding van marktaandeel nu zo enorm scheef is in nvidia's voordeel, terwijl amd toch een iets betere price/perfomance biedt. Ze trekken wat meer stroom, maar de meeste mensen hebben toch een overkill psu.
We willen geen 2e intel hebben. Dan kan je de vooruitgang in de GFX markt ook gedag zeggen. Qua CPU's komt er al jaren niets interessants meer uit. Een 4 jaar oude 2600K doet het nog mee dan prima een 4 Generaties nieuwere cpu is slechts 25% sneller. Dat is wel erg weinig. Ook het verbruik is niet veel lager geworden. Bij laptops scheelt het wel iets maar bij desktop's niet.
Hopelijk kan AMD met de volgende generatie kaarten weer wat marktaandeel terug winnen. Maar nVidia zal het ze zeker niet makkelijk maken.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Blijkbaar lees je mijn reply als AMD vs Nvidia flame, probeer het nog eens zonder en letterlijk te lezen wat ik zei. Mijn punt was hoe slecht die drie games lopen (bij launch, niet 6 maanden later). Ik zeg ook juist: "koop die games niet" (dus ten laste van de ontwikkelaar) als eerste.Nature schreef op woensdag 09 december 2015 @ 22:50:
[...]
Je kan het beter de devs kwalijk nemen zij willen GameWorks gebruiken voor water vuur haar destruction etc etc zonder er zelf iets voor te hoeven doen zo uit de 'black' box.
Watchdogs draait net zo goed op de R9 290X als op de GTX780TI meeste gameworks spul kon je ook uit zetten (ik heb zelf nog nooit zo'n k-spel gespeeld)
Assassins creed met gelijke settings draait de R9 390 1.6fps sneller dan de GTX 970.
''Nvidia's GameWorks and QA teams are helping fix Batman: Arkham Knight''
Niet gek, maar wel "niet zo slim" als de concurrent het met minder kan, en toch dezelfde prestaties levert.dahakon schreef op donderdag 10 december 2015 @ 06:00:
[...]
Kijk dan eerst eens rustig naar de objectieve feiten.
1. Fiji is bijna 2 keer zo groot als Hawaii. De chip alleen al kost dus meer om te maken.
2. Fury kaarten gebruiken een geheel nieuw geheugensysteem, welke nu nog duurder is.
3. Fury kaarten gebruiken een geheel nieuw packaging, welke nu nog moeilijker en duurder is.
Uiteindelijk zullen punt 2 en 3 in de toekomst, wanneer deze massaler toegepast gaan worden, goedkoper worden dan het nu gangbare gDDR5 met complexer PCB, maar momenteel is dat dus nog niet het geval.
Dus is het dan gek dat AMD meer geld vraagt voor een product dat op een aantal belangrijke onderdelen gewoonweg (veel) meer kost om te maken? Blijkbaar is het prima dat nVidia veel meer geld vraagt voor zijn producten met grotere die, maar als AMD dat doet is het opeens krankzinnig?
Dan is het heel nobel om als voortrekker te komen met HBM, en een kaart zoals de Nano, maar het levert gewoon niks op.
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
Als NVidia een gameontwikkelaar voor laten we zeggen een prijs van 100 middleware geeft + engineers om effecten in je game te krijgen die hem anders laten we zeggen 200 of 300 hadden gekost aan eigen personeel en development time dan zijn er geen bonnetjes.....Nature schreef op donderdag 10 december 2015 @ 00:44:
[...]
Met een flinke zak geld dat heb ik wel vaker gehoord alleen heeft nog nooit iemand een mail fax bon brief of wat dan ook gezien wat dat impliceert, ook is er in al die tijd nooit iemand uit de school geklapt terwijl dat onvermijdelijk zou zijn.
List of games with hardware-accelerated PhysX support
Voel je hem?
Het is imho een praktijk die verziekend werkt op de pc game markt.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dat is veel te kort door de bocht. Het klopt dat AMD nu wat meer kosten heeft door de ontwikkeling en implementatie van HBM, net als ze dat voorheen hadden met bijvoorbeeld gDDR5. Die kosten wegen wel iets mee, maar de hoofdoorzaak van de prijs van Fury is en blijft de chip. Daarbij is Fury een tegenhanger van 980Ti en niet van de gewone 980. De 980 levert dan ook absoluut niet dezelfde prestaties en de 980Ti is duurder.Jeroenneman schreef op donderdag 10 december 2015 @ 11:35:
[...]
Niet gek, maar wel "niet zo slim" als de concurrent het met minder kan, en toch dezelfde prestaties levert.
Dan is het heel nobel om als voortrekker te komen met HBM, en een kaart zoals de Nano, maar het levert gewoon niks op.
Belangrijker voor AMD is echter dat ze de nieuwe technieken nu onder controle heeft en kan toepassen op toekomstige producten en waarschijnlijk ook de BoM sneller naar beneden kunnen krijgen.
En dat is nou juist het leuke, nVidia geeft een developer voor 0 de middleware tools geeft inc support. Dat het geld bespaard is iets heel anders dan geld geven voor gebruik. Zo is de situatie nu. Of het wenselijk is hangt geheel af van de belangen voor nvidia en dat doen ze niet voor AMD mogen duidelijk zijn. Daarbij het is alleen gunstig voor nVidia users en dat is klote voor de markt.Help!!!! schreef op donderdag 10 december 2015 @ 11:42:
[...]
Als NVidia een gameontwikkelaar voor laten we zeggen een prijs van 100 middleware geeft + engineers om effecten in je game te krijgen die hem anders laten we zeggen 200 of 300 hadden gekost aan eigen personeel en development time dan zijn er geen bonnetjes.....
Voel je hem?
Het is imho een praktijk die verziekend werkt op de pc game markt.
Buiten de beschuldigende speculatie vinger van AMD naar nVidia is er tot nu toe geen bewijs voor omkoping of zakken geld. Gezien de hoeveelheid titels met Gameworks onder meerdere uitgevers zou er echt al bewijs geweest als er sprake zou zijn van omkoping.
@Phuncz
Op de vorige pagina staan wat stukken tekst van mensen die daar toch sterk op lijken
[ Voor 12% gewijzigd door sjekneck op 10-12-2015 14:59 ]
Huh, wat. Nee joh. Ik had toen een E6750 op 3.4-3.8 GHz en een GTX 260 met een 1680x1050 monitor. De eerste truuk was de view distance te verlagen naar een setting gelijk aan die van de consoles (iets in de 20 als ik me niet vergis). Daarna nog wat spelen met de shadows. De detail setting slider kon meteen naar de 100. Textures konden ook op high (896MB geheugen). Ik geloof dat ik een fps op 40 haalde in de benchmark op de hoge resolutie. Op 1280x1024 (5:4) lag dat nog wat hoger. Dat ging richting de 60+ fps. De game was prima speelbaar (zelfs de pre-retail), alleen de standaard draw distance stond gewoon te hoog voor de cpu's uit die tijd. Hoger dan op de consoles. Je had zelfs users die hem op 100 zetten... Jaren later heb je er profijt van dat de engine het überhaupt kan, immers nu heb je de hardware die dat aan kan. Het zijn de users die klagen die het eigenlijk voor de rest verpesten, immers die moeten tegen zichzelf worden beschermd door de mogelijkheden in te dammen. Om maar te voorkomen dat ze niet gaan zeuren...Anoniem: 59888 schreef op donderdag 10 december 2015 @ 02:26:
[...]
Watch Dogs was een desastreus verlopen project waarbij de ene na de andere deadline gemist werd. Uiteindelijk hebben ze op een zeker moment het spel maar op de markt gegooid, maar af was het nog niet. Veel optimalisaties ontbraken en er zaten nog heel veel bugs in.
GTA IV was een heel slecht geoptimaliseerde port van de Xbox 360 versie die drie CPU cores nodig had om lekker te lopen, in een tijd waarin dual core CPUs nog gemeengoed waren. Die port is zo slecht dat als het spel je GPU niet herkent hij de instellingen op z'n allerlaagst zet: 640x480 met alles op low. Dat zou geen ramp zijn, maar het settings menu wordt ook gelocked. Je moet een launch option meegeven om het spel zo ver te krijgen je de grafische opties in te laten stellen.En de klap op de vuurpijl is dat de lijst met GPU's die het spel kent nooit is geüpdate, dus alle GPU's van na 2008 kent 'ie niet.
Kortom, twee voorbeelden van slecht werk. Dat heeft niets met vooruitstrevendheid te maken.
Anno 2015 maakt die game onderdeel uit van mijn steam library en zet hij automatisch gewoon de boel op high met 2560x1080. Dus van het gpu lijst verhaal merk ik eigenlijk niets.
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Ik meende in interview met nvidia gelezen te hebben dat de developers er wel voor moesten betalen.sjekneck schreef op donderdag 10 december 2015 @ 12:44:
[...]
En dat is nou juist het leuke, nVidia geeft een developer voor 0 de middleware tools geeft inc support. Dat het geld bespaard is iets heel anders dan geld geven voor gebruik. Zo is de situatie nu. Of het wenselijk is hangt geheel af van de belangen voor nvidia en dat doen ze niet voor AMD mogen duidelijk zijn. Daarbij het is alleen gunstig voor nVidia users en dat is klote voor de markt.
Buiten de beschuldigende speculatie vinger van AMD naar nVidia is er tot nu toe geen bewijs voor omkoping of zakken geld. Gezien de hoeveelheid titels met Gameworks onder meerdere uitgevers zou er echt al bewijs geweest als er sprake zou zijn van omkoping.
Verder vind ik je invalshoek nogal semantisch. Wat maakt het onder de streep uit dan?
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Waar zijn dan de zogenaamde betrouwbare bronnen? Je kan als ontwikkelaar Nvidia 24/7 bellen en er staan binnen no time een groep mensen klaar om te helpen, dat wel en dat scheelt heel wat geld maar letterlijk een zak geld geven, zoals jij zegt nee.Anoniem: 59888 schreef op donderdag 10 december 2015 @ 02:26:
Dat is wel heel makkelijk geredeneerd. 'Als ik het niet zie is het er niet'. Er zijn al jaren een heleboel betrouwbare aanwijzingen. Bovendien moet je wel heel goedgelovig zijn om te denken dat als Nvidia zijnde wel even in de code van een game mag gaan rommelen zonder een flinke zak geld op tafel te leggen. Zo leuk zijn die effecten nou ook weer niet, bovendien heb je ze niet nodig om je game goed te laten verkopen.
Veel AMD gebruikers denken ook vaak dat mensen die argumenten hebben voor Intel/Nvidia meteen werknemers zijn. Je kan het je haast niet voorstellen, het lijkt zo uit de 'The godfather' te komen.
Oh.. en hier gebruik ik juist een PC voor de goede graphics , dan toch maar denken aan zo'nDe tijd dat games met goede graphics altijd goed verkochten is voorbij, daar hebben de laatste twee jaar van de vorige console generatie definitief mee afgerekend.
Peasantbox/station
Dat is niet wat ik zeg, wat ik bedoel met dat de Fury(X) halo products zijn het heeft leuke specs HBM waterkoeling een grote bus maar haast niemand koopt het gewoon te duur, vooral als je kijkt dat Nvidia sneller is op alle resoluties 4k wel met non-reference maar wie koopt referenceDat is een bekend verhaal. Men had verwacht nu al op een kleiner procedé te kunnen produceren maar dat procedé is mislukt en dus niet beschikbaar. AMD kan die chips wel ontwerpen maar ze kunnen domweg niet gefabriceerd worden. Volgend jaar zou de volgende node moeten komen en naar verwachting wordt er dan wel een grote sprong gemaakt, zowel door AMD als door Nvidia.
feit is dat Nvidia al zeker 10 jaar dezelfde prijs hanteert topmodel $600+De HD4870 was de op een na snelste kaart van zijn generatie. Alleen de HD 4870 X2 was (uiteraard) sneller, dat was een dual-GPU kaart. Als je de 4870 met een kaart van nu gaat vergelijken moet je het in de buurt van de Fury (non-X) of GTX 980 (non-TI) zoeken. Die kosten allebei 500+ euro. Je hebt helemaal gelijk dat inflatie en de dollarkoers een rol spelen, maar ook als je dat meerekent kun je nu voor dat bedrag geen high-end kaart meer kopen. Je betaalt nu dus flink meer voor een high-end kaart dan toen.
Ik denk dat je hetzelfde kan zeggen HD7970 t.o.v R9 290X. GTX 780 TI t.o.v GTX 980 TI Hij kost meer om te maken maar ik heb wel gehoord dat 4GB HBM ook niet perce veel doet voor de prestaties, waterkoeler evenmin. Partners mogen er alleen hun sticker op plakken zal ook weinig doen voor prijs concurrentie.dahakon schreef op donderdag 10 december 2015 @ 06:00:
[...]
Kijk dan eerst eens rustig naar de objectieve feiten.
1. Fiji is bijna 2 keer zo groot als Hawaii. De chip alleen al kost dus meer om te maken.
2. Fury kaarten gebruiken een geheel nieuw geheugensysteem, welke nu nog duurder is.
3. Fury kaarten gebruiken een geheel nieuw packaging, welke nu nog moeilijker en duurder is.
Uiteindelijk zullen punt 2 en 3 in de toekomst, wanneer deze massaler toegepast gaan worden, goedkoper worden dan het nu gangbare gDDR5 met complexer PCB, maar momenteel is dat dus nog niet het geval.
Dus is het dan gek dat AMD meer geld vraagt voor een product dat op een aantal belangrijke onderdelen gewoonweg (veel) meer kost om te maken? Blijkbaar is het prima dat nVidia veel meer geld vraagt voor zijn producten met grotere die, maar als AMD dat doet is het opeens krankzinnig?
Nvidia wilt videokaarten verkopen dus zullen zij devs graag een handje helpen om hun naam aan het spel te verbinden en te zorgen dat het zo goed mogelijk loopt op hun kaarten. Meer dan 80% van de kaarten die over de toonbank gaan is een Nvidia, zo'n 70% van de gamers die veel gamen heeft Nvidia, gezien de verkoop zal dat steeds meer worden (als er geen wonder gebeurd), dus is het logisch dat devs met Nvidia werken en niet de minderheid AMD.Help!!!! schreef op donderdag 10 december 2015 @ 11:42:
[...]
Als NVidia een gameontwikkelaar voor laten we zeggen een prijs van 100 middleware geeft + engineers om effecten in je game te krijgen die hem anders laten we zeggen 200 of 300 hadden gekost aan eigen personeel en development time dan zijn er geen bonnetjes.....
Voel je hem?
Het is imho een praktijk die verziekend werkt op de pc game markt.
Het werkt imo niet verziekend het is zoals het is, het heeft voor en nadelen, meer nadelen wanneer je AMD gebruikt, ik heb bij Just Cause 3 prachtige effecten gezien met WaveWorks werkt net zo goed of je nou een AMD/Nvidia kaart hebt gaat via de cpu.
Je mag het noemen zoals je wilt, het hele overdreven zware tesselation verhaal wat geen moer uithaalt buiten alles dat geen Maxwell 2 is te verkreupelen, noem ik niet "meer Nvidia kaarten verkopen". Zeker niet als het dan de ontwikkelaars verbiedt de game te laten optimaliseren gebasseerd op de broncode door de concurrentie (oei, toevallig AMD en Intel). Dat is een anti-trust hoor. Het heeft helaas bij Intel/AMD destijds ook vele jaren geduurd voordat er iets aan gedaan werd maar het kwaad was allang geschied.Nature schreef op donderdag 10 december 2015 @ 21:14:
Nvidia wilt videokaarten verkopen dus zullen zij devs graag een handje helpen om hun naam aan het spel te verbinden en te zorgen dat het zo goed mogelijk loopt op hun kaarten. Meer dan 80% van de kaarten die over de toonbank gaan is een Nvidia, zo'n 70% van de gamers die veel gamen heeft Nvidia, gezien de verkoop zal dat steeds meer worden (als er geen wonder gebeurd), dus is het logisch dat devs met Nvidia werken en niet de minderheid AMD.
Het werkt imo niet verziekend het is zoals het is, het heeft voor en nadelen, meer nadelen wanneer je AMD gebruikt, ik heb bij Just Cause 3 prachtige effecten gezien met WaveWorks werkt net zo goed of je nou een AMD/Nvidia kaart hebt gaat via de cpu.
Elke fabrikant streeft naar een monopolie of er toch zo kort mogelijk bij te zijn. Maar de consument is er niets mee als er oneerlijke concurrentie is, integendeel. Hoop maar op meer GameWorks, hoop maar op een AMD dat verdwijnt, dan kan je dag zeggen tegen gaming als een GPU ineens meer kost dan de rest van de PC en die van een jaar geleden niet werkt op de game van morgen.
And that's when I stopped readingNature schreef op donderdag 10 december 2015 @ 21:14:
[...]
feit is dat Nvidia al zeker 10 jaar dezelfde prijs hanteert topmodel $600+

GTX480: $499 - HD5970: $599
GTX580: $499 - HD6970: $370
GTX680: $499 - HD7970: $450
GTX780: $650 - R9 290X: $550
GTX780Ti: $700
GTX980TI: $650 - R9 Fury X: $650
De prijzen van NVidia's top kaarten zijn van ongeveer 500 dollar naar 650 tot 700 dollar gegaan in de laatste 5 jaar. De AMD kaarten waren, op de HD5970 na, altijd goedkoper tot de Fury X kwam. Hierbij moet wel gezegd worden dat de GTX480 geen schijn van kans had tegen de HD5970; de GTX480 was eerder een concurrent van de HD5870 (kaart van ~$380 bij de launch). De prijs van de HD6970 is ook wat vertekenend, aangezien dit dan weer geen geweldige kaart was van AMD (gelijk aan of net boven de GTX570, net wat achter de GTX580).
NVidia is de laatste jaren meestal wat eerder met het uitbrengen van een nieuwe reeks kaarten en die plaatsen ze dan ook erg hoog in de prijs. Als je een GTX780 uitbrengt die toch flink wat sneller is dan een HD7970, ja dan kun je er de hoofdprijs voor vragen. Toen kwam de R9 290X uit die gehakt maakte van de GTX780 en toen kwam NVidia ineens heel snel met de GTX780Ti uit (minder dan 2 weken later), wederom tegen de (nu nog hogere) hoofdprijs.
Bij de laatste rond was het weer hetzelfde; de GTX980 komt uit (is toch weer ietsjes sneller dan de GTX780Ti en R9 290X) met een prijs van $550 en blijft lang tijd de beste performer, zij het voor een veel slechtere prijs/performance ratio dan de R9 290X. En hey, de Fury en Fury X zitten eraan te komen en (heel toevallig) komt NVidia ineens met een veel snellere kaart, de GTX980Ti (basically een Titan X "light") voor een prijs ver onder die van de Titan X. Dit aangezien de GTX980 geen schijn van kans zou staan tegen de Fury en Fury X.
Dit hele spelletje van elkaar overtreffen, spelen met de prijzen enzovoorts is natuurlijk plain old business. NVidia staat er financieel heel wat beter voor en ze kunnen zich permitteren om redelijk arrogant te zijn met hun strategie. Men zegt wel vaker dan NVidia een voorsprong heeft bij de laatste paar generaties kaarten, en qua tijdstip waarop ze uitkomen is dat zeker ook zo, maar de manier van hoe zij reageren op de concurrentie (AMD) en vooral de prijzen die ze daarbij hanteren vind ik vrij arrogant en onzeker (3.5GB fiasco bij de GTX970, Gameworks).
Als AMD wat vlotter haar R9 290(X) en R9 Fury (X) reeksen had kunnen uitbrengen (gelijktijdig met de GTX780 en GTX980), dan waren er denk ik geen GTX780Ti of GTX980Ti kaarten geweest. Dan had de GTX780Ti de naam GTX780 gekregen, de GTX780 was een GTX770 geworden en de GTX770 had waarschijnlijk niet bestaan of had GTX760Ti geheten.
Hetzelfde principe bij de GTX980Ti welke dan GTX980 geheten had en de GTX980 was een GTX970 geworden, de GTX970 een GTX960Ti. Wel te verstaan dat de prijzen van de beste NVidia kaarten dan gelijk (of zelfs lager) zouden zijn geworden dan de GTX780 en GTX980 zoals ze nu bij launch waren en dus waren de beste kaarten van NVidia in dat geval niet/nauwelijks duurder dan de topkaarten van daarvoor (GTX480, GTX580 en GTX680).
Binnenkort komt er mogelijk/waarschijnlijk ook alsnog een GTX960Ti uit (heel opmerkelijk dat er dan zowel een GTX x60Ti en GTX x80Ti in dezelfde serie zijn), omdat NVidia op dit moment geen antwoord heeft op de R9 380X (hier was AMD een keer eerder) en deze kaart toch in een zeer aantrekkelijk segment van ligt. Veel meer mensen kopen een GPU van 200 tot 300 euro, dan de hoeveelheid mensen die een GPU van 500++ euro kopen.
Als puntje bij paaltje komt kan je eigenlijk altijd wel inschatten hoeveel een kaart gaat kosten als je de performance weet en vice versa. Als NVidia b.v. alsnog met een GTX960Ti uitkomt, dan kan je er vergif op innemen dat deze gelijk of net iets beter zal zijn dan de R9 380X, en de prijs zal gelijk of misschien 10 of 20 euro hoger liggen. NVidia gaat echt niet een GTX960Ti uitbrengen voor 200 euro, of de GTX970 naar naar +- 275 euro gooien. Bij de volgende reeks NVidia en AMD kaarten zullen de topmodellen wel weer iets van 20-25% sneller zijn dan de Fury X en GTX980Ti met gelijke prijzen en zullen de sub-top modellen (GTX 1070?) wel weer beginnen rond de 400-450 euro.
Ryzen 7 5800X ~~ 32GB GSkill TridentZ 3600Mhz ~~ ASRock B550 Steel Legend ~~ XFX Radeon RX5700XT
Nvidia maakt API's geen engine al zit het volgens mij wel bij Unreal inbegrepen mocht je het willen gebruiken dus de developer kiest er sowieso nog altijd voor, mantle is trouwens niet open source.Phuncz schreef op donderdag 10 december 2015 @ 22:32:
[...]
Je mag het noemen zoals je wilt, het hele overdreven zware tesselation verhaal wat geen moer uithaalt buiten alles dat geen Maxwell 2 is te verkreupelen, noem ik niet "meer Nvidia kaarten verkopen". Zeker niet als het dan de ontwikkelaars verbiedt de game te laten optimaliseren gebasseerd op de broncode door de concurrentie (oei, toevallig AMD en Intel). Dat is een anti-trust hoor. Het heeft helaas bij Intel/AMD destijds ook vele jaren geduurd voordat er iets aan gedaan werd maar het kwaad was allang geschied.
Elke fabrikant streeft naar een monopolie of er toch zo kort mogelijk bij te zijn. Maar de consument is er niets mee als er oneerlijke concurrentie is, integendeel. Hoop maar op meer GameWorks, hoop maar op een AMD dat verdwijnt, dan kan je dag zeggen tegen gaming als een GPU ineens meer kost dan de rest van de PC en die van een jaar geleden niet werkt op de game van morgen.
AMD bekritiseerd Nvidia openbaar maar ik heb ze nooit iets horen zeggen over/tegen devs terwijl zij juist degene zijn die het gebruiken.
AMD is zo incompetent ze doen zelf alles verkeerd ze komen met mooie technieken alleen verdienen ze er niets mee.
ik heb de release van Fury en r9 300 series gezien wat een show Huddy die een soort van objectieve journalist speelt al vragen stellende en lisa Su die in een keer begon te blerren op het podium wat me nog specifiek bijgebleven is dit de R7 370 meteen in het begin ''the R7 370 created for 1080p'' ja 3! jaar geleden en daarna de R9 380, ''enough to drive games at 1440p resolutions''. laat me niet lachen.
Ik vind dat je wel gelijk hebt hoor van die anti-trust dan wel tegen AMD het lijkt of ze er alles aan doen om Nvidia aan een monopolie te helpen het lijkt wel of ze aandelen hebben in Nvidia...
Ik hoop niet Percé op meer GameWorks al vind ik wel een hoop technieken mooi noch het verdwijnen van AMD, mij interesseert het eerlijk gezegd niet veel, ik heb meer bedrijven zien gaan waar er daarna niets veranderde en als er een Vacuüm ontstaat stapt er wel weer iemand in.
Waar ik wel benieuwd naar ben is hoeveel mensen op dit forum een Fury X hebben ik denk dat ze op 2 handen misschien 1 hand te tellen zijn.
7800 GTX $600
8800 GTX $650
8800 ultra $830
9800 GTX $299
GTX 280 $649
GTX 480 $499
GTX 580 $499
GTX 680 $499
GTX 780 $650
GTX 780 TI $700
GTX 980 TI $650
Het topmodel heeft 4x onder de $600 gezeten 7x daarboven, wat ik zei dat Nvidia niet bepaald duurder wordt historisch gezien, al helemaal wanneer je inflatie mee berekent klopt. Je kan zeggen dat hij tijdelijk iets goedkoper is geweest.
Dus 10 jaar consequent $600+ nee, duurder geworden over 10 jaar ik denk goedkoper Titan uiteraard niet mee gerekend.
[ Voor 40% gewijzigd door br00ky op 13-12-2015 19:20 ]
5970 is een dual gpu frits en de 5870 was goedkoperMoi_in_actie schreef op vrijdag 11 december 2015 @ 00:19:
[...]
*knip* dit is nou quoten zoals het bedoeld is
[ Voor 91% gewijzigd door br00ky op 13-12-2015 19:19 ]
B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW
Waarom wordt Mantle nog steeds met GameWorks vergeleken? Het zijn twee apparte dingen, dat zou ondertussen duidelijk moeten zijn. Mantle is een appart codepath naast DX11 en zal dus nimmer de prestaties kunnen beinvloeden, GameWorks daarentegen voegt dingen toe aan het DX11 codepath en doordat de source niet inzichtbaar is voor AMD (of aanpasbaar) kan het wel dingen veranderen aan de prestaties.Nature schreef op vrijdag 11 december 2015 @ 15:30:
[...]
Nvidia maakt API's geen engine al zit het volgens mij wel bij Unreal inbegrepen mocht je het willen gebruiken dus de developer kiest er sowieso nog altijd voor, mantle is trouwens niet open source.
AMD bekritiseerd Nvidia openbaar maar ik heb ze nooit iets horen zeggen over/tegen devs terwijl zij juist degene zijn die het gebruiken.
AMD is zo incompetent ze doen zelf alles verkeerd ze komen met mooie technieken alleen verdienen ze er niets mee.
Mantle is al een behoorlijke tijd opensource in de vorm van Vulkan.
Wat jij zegt dat er wel iemand anders in het vacuum stapt is onzin. De enige die een kans zou maken is Intel en die loopt nog steeds achter op videokaart niveau als je die vergelijkt met de AMD apu's en dan heb ik het niet over de rauwe prestaties van bijvoorbeeld de Iris Pro.Ik hoop niet Percé op meer GameWorks al vind ik wel een hoop technieken mooi noch het verdwijnen van AMD, mij interesseert het eerlijk gezegd niet veel, ik heb meer bedrijven zien gaan waar er daarna niets veranderde en als er een Vacuüm ontstaat stapt er wel weer iemand in.
Ik zie AMD liever niet verdwijnen in de videokaart markt. Dat zou betekenen dat ik voor een GTX2040 400 euro moet gaan betalen.... want monopolie.
GameWorks is en blijft gewoon slecht voor de videogamemarkt, laat ik het zo stellen alles dat dingen toevoegt aan een spel waar maar een fabrikant de controle over heeft en waar de andere fabrikant gebruik van moet maken is slecht voor de markt.
Ik snap die discussie over de prijspunten van de videokaarten niet echt. De Fury (x) is gewoon het halo project van AMD in dat opzicht vergelijkbaar met de Titan, zo wordt hij ook gepresenteerd. Beide kosten meer dan nodig is.
De Titans worden voor het gemak steeds uit het lijstje gelaten terwijl die kaarten wel door enthausiasts worden gekocht en veel duurder zijn dan de "normale" ultra highend.
Klopt, die was qua prijs dacht ik vergelijkbaar met de HD6970.aminam schreef op vrijdag 11 december 2015 @ 15:46:
[...]
5970 is een dual gpu frits en de 5870 was goedkoper
Zou je alsjeblieft selectiever willen quoten, de hele post voegt weinig toe en ik krijg er een scroll middel vinger van?
[ Voor 13% gewijzigd door Sp3ci3s8472 op 11-12-2015 15:55 ]
B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW
Zo gek is dat toch niet? Het was een poging van amd om hun kaarten meerwaarde te geven door middel van proprietary features.Sp3ci3s8472 schreef op vrijdag 11 december 2015 @ 15:49:
Waarom wordt Mantle nog steeds met GameWorks vergeleken?
Maar nvidia is evil, dus is gameworks verschrikkelijk en mantle supertof.
Mechwarrior Online: Flapdrol
Ergens snap ik het ook wel maar het doet beide net wat anders. Daarom ook mijn uitleg, als GameWorks zoals Mantle zou werken (een apparte API naast DX11/de rest) dan had ik het net zo tof gevonden als Mantle. Hoewel je dan weer voor iedere fabrikant een aparte API hebt, ik ben ook blij dat AMD Mantle aan de Khronos Group heeft gedoneerd zodat er niet tal van API's komen.haarbal schreef op vrijdag 11 december 2015 @ 16:18:
[...]
Zo gek is dat toch niet? Het was een poging van amd om hun kaarten meerwaarde te geven door middel van proprietary features.
Maar nvidia is evil, dus is gameworks verschrikkelijk en mantle supertof.
De grote reden dat ik Mantle zo tof vind is dat het een probleem aanpakt wat gewoon een hele tijd is verwaarloost terwijl er voordat Mantle er was geen indicaties waren dat OpenGL of DX dit zou aanpakken, Mantle heeft uiteindelijk voor die push gezorgt.
Verwaarloost gewoon omdat er sinds volgens mij DX9 al trukjes zijn ontwikkelt om dit probleem te omzeilen, zoals instancing, in DX11 tesselation. Allemaal om meer detail en variatie op het scherm te toveren zonder dat de draw calls gigantisch toenemen.
Er is een grote reden dat de performance van console ports zo belabbert is. In de meeste gevallen is dat het aantal draw calls, de PS3 kon makkelijk 3-5x zoveel draw calls maken als een highend pc destijds. Met de komst van DX12 en Vulkan kan iets veel makkelijker geport worden en hoeven developpers veel minder rekening te houden met de draw call limiet.
Mantle is Open Source. Het heet alleen Vulkan, heeft een paar kleine aanpassingen gehad en wordt beheerd door de Khronos groep.
Voor de rest, is geen enkele gamer erbij gebaat dat Gameworks gemeengoed wordt. Waarom niet? Omdat nVidia met Gameworks bewust niet alleen zijn concurrenten buiten spel probeert te zetten, maar ook zijn eigen hardware van de vorige generatie(s), zodat mensen 'gedwongen' worden om een upgrade te maken naar de nieuwste generatie (Keplers prestaties lijden nog meer onder Gameworks dan AMD's hardware). Gameworks wordt door nVidia derhalve voor niets anders gebruikt dan om mensen te forceren meer geld aan nVidia hardware uit te geven.
De vraag is dan ook, hoe zeer zal Maxwell lijden onder Gameworks, wanneer Pascal op de markt komt.
Enfin, dit is het Radeon draadje en het ging over hoeveel duurder Fury X wel niet is en dat deze nog steeds trager is dan fabrieks overclocked 980Ti's (die overigens weer heel veel duurder zijn, maar daar wordt dan weer hard over gezwegen).
http://blog.mecheye.net/2015/12/why-im-excited-for-vulkan/
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®
Erg interessante blog post, aanrader!LongBowNL schreef op maandag 14 december 2015 @ 12:04:
Blog over Vulkan (en OpenGL)
http://blog.mecheye.net/2015/12/why-im-excited-for-vulkan/
Voor de mensen die hem willen lezen en een 404 krijgen, hij staat nog in de google cache en een iets ouder snapshot in de wayback machine.
http://web.archive.org/we...hy-im-excited-for-vulkan/
AMD Radeon R9 390 now offered with 4GB memory
http://videocardz.com/579...w-offered-with-4gb-memoryBitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
"OpenWorks" van AMD. Als ze de beloftes waarmaken is de Linuxgebruiker straks een stuk beter af.
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®

Ik ben wel benieuwd of ze Linux op een goed niveau kunnen krijgen, er is daar veel werk aan de winkel met een potentiële grote markt gezien Steam en de zeer breed inzetbare aard van Linux, van handheld tot signage.
[ Voor 10% gewijzigd door Phuncz op 15-12-2015 18:07 ]
http://wccftech.com/amds-...cs-effects-and-libraries/
In het kort, dingen die in Gamebarelyworks™ zitten, maar dan met open, vrij te gebruiken API's (denk aan TressFX etc.)
Edit: hmmm, ik zie dat een uur of 2 eerder al een gelijkende post is geplaatst met andere bron... *boos kijkt naar zijn refresh knop*...
[ Voor 20% gewijzigd door dahakon op 15-12-2015 17:57 ]
Nee openworks is niet de officiële naam, was een grapje van Richard HuddySAiN ONeZ schreef op dinsdag 15 december 2015 @ 17:01:
Aparte naam keuze, een pun naar het gedrocht Gameworks?
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®
Zou wel heel erg helpen als de volgende generatie GPU's duidelijk beter uit de tests komen dan nvidia en AMD marketshare stuk omhoog gaat.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
[ Voor 14% gewijzigd door sdk1985 op 15-12-2015 18:57 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Dus wat zou dit initiatief dan uithalen? Ik heb namelijk het idee dat men bij dit soort initiatieve er standaard vanuit gaat dat het inferieur is aan de betaalde/gesloten alternatief. Zie ook hiervoor de Free-Sync vs G-Sync debat.
[ Voor 3% gewijzigd door Phuncz op 15-12-2015 19:31 ]
Als game developers hier serieus mee bezig gaan en nieuwe dingen creeren en dat ook weer onder OpenGPUGPUOpen uitbrengen dan kan dit groot worden en uiteindelijk GameWorks uit de markt drukken.madmaxnl schreef op dinsdag 15 december 2015 @ 19:22:
Ik snap niet waarom iedereen enthousiast is. Jullie zien toch dat nVidia met Gameworks nVidia kopers niet afschrikt met hun kut zooi. Zelfs de uitgevers/ontwikkelaars boeit het blijkbaar niet als Gameworks een extreem buggy, en dus eigenlijk onverkoopbare, game oplevert.
Dus wat zou dit initiatief dan uithalen? Ik heb namelijk het idee dat men bij dit soort initiatieve er standaard vanuit gaat dat het inferieur is aan de betaalde/gesloten alternatief. Zie ook hiervoor de Free-Sync vs G-Sync debat.
Dingen zoals SMAA zouden prima hieronder kunnen vallen aangezien dat ook open is.
Nvidia heeft misschien een goede "userbase" voor GameWorks maar is net zoals AMD maar een bedrijf en dus gelimiteerd aan wat ze kunnen uitgeven aan research.
Ze zijn niet de enige in de markt die research doen naar nieuwe effecten. Mensen bij Crystal Dynamics/Fireaxis/Crytek/Oxide Games/DICE/Eidos Montreal lopen ook vaak voorop op nieuwe technieken en zouden dit prima willen delen (althans hoop ik
Bij elkaar kunnen die veel meer R&D leveren dan Nvidia in zijn eentje kan.
Nu is mijn verhaal natuurlijk de meest rooskleurige versie die er kan zijn en waarschijnlijk loopt het allemaal niet zo storm, overigens weet ik niet of al die developers in zijn. Ik weet alleen dat ze positief tegen Mantle waren en bijvoorbeeld ook TressFX gebruikten.
Wat betreft Freesync/Gsync. Freesync heeft in zijn korte levensduur al meer beeldschermen op de markt dan Gsync en de schermen zijn ook goedkoper. Het zal dus eerder gemeengoed worden.
[ Voor 4% gewijzigd door Sp3ci3s8472 op 15-12-2015 20:03 ]
Nee hoor, laat AMD maar doen waar ze goed in zijn, de gaming industrie voor iedereen vooruit willen helpen ipv. enkel hun eigen klanten.
Als ik het goed begrijp is dat ook de bedoeling (of iig een goede uitkomst). Als nVidia ook op GPUOpen zit kunnen ontwikkelaars dus aan de slag met een software stack die geschikte is (te maken) voor alle hardware. Dat is dus een fundamenteel andere aanpak dan GameWorks, dat juist erg gesloten is voor iedereen behalve nVidia en ontwikkelaars die een contract tekenen.Tsux schreef op dinsdag 15 december 2015 @ 21:33:
Gooit AMD niet zijn eigen ruiten in door dit open te maken? Dan kan Nvidia er toch ook gewoon mee aan de slag?
Zoals PCPer het schetst is het zelfs te hopen dat nVidia mee gaat doen:
A community-driven software stack that includes robust tools and effects that work in multiple APIs that is compatible on all hardware (consoles, AMD, NVIDIA) and that all game developers can utilize and improve upon is the holy grail of an open and shared ecosystem. But can it actually exist?
Much of that depends on the market leader in the GPU space, NVIDIA. GeForce cards currently make up ~80% of the market and it is very difficult for AMD to make its case to game developers that they should spend time on GPUOpen code and tools, while also putting work back into the open community, when NVIDIA isn’t supporting or optimizing its code base for it. Add to that fact that NVIDIA is more than willing to give developers access to GameWorks, a collection of tools, effects and SDKs that is still currently ahead of AMD’s option in functionality, even though much of it is that dreaded “black box”, and you have a steep climb for GPUOpen to ascend.
Wat ik eigenlijk bedoel is het volgende.r100 schreef op dinsdag 15 december 2015 @ 21:51:
[...]
Als ik het goed begrijp is dat ook de bedoeling (of iig een goede uitkomst). Als nVidia ook op GPUOpen zit kunnen ontwikkelaars dus aan de slag met een software stack die geschikte is (te maken) voor alle hardware. Dat is dus een fundamenteel andere aanpak dan GameWorks, dat juist erg gesloten is voor iedereen behalve nVidia en ontwikkelaars die een contract tekenen.
Wat ik begrijp van de huidige situatie is dat je Nvidia hebt met GameWorks. Een unieke set tools die gesloten is. AMD kan er dus niks mee.
Wanneer AMD GPUOpen, ook een unieke set tools, helemaal vrijgeeft, dan kan Nvidia aan de slag met zowel GameWorks als GPUOpen en zit AMD nog steeds met alleen GPUOpen.
Dan heeft AMD toch helemaal niks gewonnen en Nvidia juist alles? Die hebben dan allereerst het standaard van AMD + hun eigen unieke features.
Of zie ik dit nu even verkeerd?
Anoniem: 59888
Bij een open technologie kan iedereen het gebruiken, ongeacht welke merk GPU je hebt. Daar heeft niemand een nadeel van, maar is iedereen bij gebaat. Voor GPU kopers is GUPOpen dus goed nieuws. Maar alleen als Nvidia er voor zorgt dat e.e.a. ook goed draait op hun GPU's, gezien dat hun eigen Gameworks programma zou ondermijnen is het maar de vraag of ze dat gaan doen.

Voor een ontwikkelaar zou het ook gunstig kunnen zijn, als GPUOpen op GPU's van beide fabrikanten draait hoef je e.e.a. maar een keer te implementeren. Als je kunt kiezen tussen het exclusieve Gameworks en GPUOpen dan zou de keuze dus heel makkelijk zijn en kies je voor GPUOpen. Tenzij iemand je een zeer dringende reden geeft om voor Gameworks te kiezen natuurlijk. *kuch*
Ik baal er nog steeds van dat Nvidia GPU-accelerated PhysX Nvidia-exclusief gemaakt heeft. Met GPU-accelerated PhysX zou je hele gave gameplay kunnen maken met allerlei objecten en vloeistoffen en weet ik niet wat. Maar omdat het exclusief is zou zo'n spel alleen op Nvidia kaarten draaien en daar begint niemand aan. Gevolg is dat GPU-accelerated PhysX alleen voor visuele effecten wordt gebruikt, en zelfs dat gebruikt bijna niemand.

[ Voor 9% gewijzigd door Anoniem: 59888 op 16-12-2015 00:00 ]
Nvidia heeft immers AGEIA Technologies overgenomen, PhysX was toen een kaart van €120 euro. Zie de review: https://www.techpowerup.c...G/Ageia_PhysX_Card/7.html . Daarna was het voor elke Geforce gebruiker gratis. Zou stupide zijn om eerst miljoenen neer te leggen voor Ageia en het dan met anderen te delen... Het was een strategische zet om een USP (unique selling point) te creëren.
Hetzelfde geldt eigenlijk voor gameworks. Het is een programma dat vooral gericht is op het leven van ontwikkelaars makkelijker maken. Ze bieden kant en klare effects die relatief eenvoudig kunnen worden geïmplementeerd. Daar stopt het echter niet, Nvidia komt ook bij je langs om te helpen met de implementatie. Dus ook daar wordt geld uitgegeven om een USP te creëren. Dat vrij geven zou een stomme zet zijn.
AMD oppert nu een "community driven" model. Als er op dat moment iets niet lukt dan moet je maar net geluk hebben dat de "community" zin heeft je te helpen. Bedrijfsmatig gezien is dat geen prettig model. Voor veel andere groepen is het echter wel ideaal.
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Anoniem: 59888
Klopt, maar dat wil niet zeggen dat ik er blij mee moet zijn. Als AGEIA door iemand anders was overgenomen had er veel meer met die technologie gedaan kunnen worden. Wat visuele effecten (vaak weinig indrukwekkend) is echt een verspilling van die technologie. De mogelijkheden zijn veel groter maar door de Nvidia-exclusiviteit begint niemand er aan. En laten we eerlijk zijn, een handje vol games per jaar met wat visuele effecten is nou niet bepaald een USP. Er zijn veel redenen waarom je voor Nvidia zou kunnen kiezen, maar GPU-accelerated PhysX is er daar niet een van. Wat dat betreft zou ik de overname van AGEIA door Nvidia geen succes willen noemen eerlijk gezegd.sdk1985 schreef op woensdag 16 december 2015 @ 00:14:
Tja het is niet heel vreemd dat zaken als PhysX en Gameworks niet open zijn...
Ah ja, het aloude verhaaltje over het nobele Nvidia dat zo aardig is om ontwikkelaars een handje te helpen, met als enige nadeel dat het niet op AMD werkt omdat Nvidia AMD natuurlijk niet gaat helpen. Leuk bedacht, maar AAA games worden gemaakt door honderd of zelfs een paar honderd ontwikkelaars op engines die op hun beurt ook weer door vele mensen gemaakt worden. Die effecten zouden ze zelf ook prima toe kunnen voegen en dat handje vol ontwikkelaars van Nvidia is een druppel op een gloeiende plaat.sdk1985 schreef op woensdag 16 december 2015 @ 00:14:
Hetzelfde geldt eigenlijk voor gameworks. Het is een programma dat vooral gericht is op het leven van ontwikkelaars makkelijker maken.
Het is gewoon een ouderwetse geldkwestie, leg een zak met geld op tafel en ineens gaan er een hoop deuren voor je open, zo gaat dat in het bedrijfsleven. Dat er vervolgens bij sommige games rare dingen gebeuren als je een AMD kaart in je PC hebt zitten zou na al die jaren toch niemand meer moeten verbazen, maar oogkleppen verkopen ook vandaag de dag nog altijd goed.
Ik snap persoonlijk nooit dat mensen zich zo identificeren met het merk van hun grafische kaart. Ik vind AMD een mooi bedrijf, maar als ze iets doen waar ik niet blij van wordt hoor je mij dat echt niet goed praten. Ik voorzag een mogelijkheid voor Linux om eindelijk Windows het vuur aan de schenen te leggen met Mantle, in plaats daarvan werd het DX12 op Windows 10. Ook goed dacht ik, tot ik Windows 10 zelf uitprobeerde. Dag privacy, hallo OS wat mij vertelt hoe ik mijn PC mag gebruiken i.p.v. omgekeerd. Dat was dus heel snel weer terug naar Windows 7, maar zonder Windows 10 ook geen DX12 natuurlijk. En bedankt AMD.
Nee ik verwacht niet dat de Khronos Group met Vulkan ineens wel in staat zal zijn met Microsoft te concurreren. Helaas.
Tja ik denk dat je het punt van PhysX hebt gemist. Het ging meer om cpu offloaden (en daarmee betere physx mogelijk maken). Vergeet niet dat we in die tijd te maken hadden met een stilstand in cpu land. Zo erg dat hier op tweakers zelfs een artikel verscheen dat snellere gpu's geen zin meer hadden: reviews: 2010: Nvidia en AMD nek aan nek . Er zijn een aantal games geweest waarbij Physx een flinke fps boost opleverde. Ik kan me er één herinneren waarbij het van 40 naar 60 fps ging. Dat was een racegame (een soort fast and furious game).Anoniem: 59888 schreef op woensdag 16 december 2015 @ 07:49:
[...]
Klopt, maar dat wil niet zeggen dat ik er blij mee moet zijn. Als AGEIA door iemand anders was overgenomen had er veel meer met die technologie gedaan kunnen worden. Wat visuele effecten (vaak weinig indrukwekkend) is echt een verspilling van die technologie. De mogelijkheden zijn veel groter maar door de Nvidia-exclusiviteit begint niemand er aan. En laten we eerlijk zijn, een handje vol games per jaar met wat visuele effecten is nou niet bepaald een USP. Er zijn veel redenen waarom je voor Nvidia zou kunnen kiezen, maar GPU-accelerated PhysX is er daar niet een van. Wat dat betreft zou ik de overname van AGEIA door Nvidia geen succes willen noemen eerlijk gezegd.
Uiteindelijk is dat concept van cpu offloading anders toegepast in de vorm van CUDA, waar iedereen NVidia voor gek mee verklaarde. Het ging immers te kostte van de game performance. Het heeft ze echter de Pro markt gebracht met bijbehorende marges.
Heeft niks met nobel te maken, het hele programma kost geld. Programmeurs zijn niet gratis, ze on-site sturen al helemaal niet. Het zak geld argument is hier op tweakers al zo oud als de weg naar Rome, toch is er tot op heden nog nooit enige bewijs geleverd. Gaat ook eigenlijk niet als SEC gecontroleerd bedrijf, dan ga je de gevangenis in als CEO (voor omkopen). Als er geldstromen zijn dan moeten die netjes gemeld worden. Ik heb nooit iets kunnen vinden in de verslagen. Dat in een discussie betrekken om een punt te maken is een dooddoener.[...]
Ah ja, het aloude verhaaltje over het nobele Nvidia dat zo aardig is om ontwikkelaars een handje te helpen, met als enige nadeel dat het niet op AMD werkt omdat Nvidia AMD natuurlijk niet gaat helpen. Leuk bedacht, maar AAA games worden gemaakt door honderd of zelfs een paar honderd ontwikkelaars op engines die op hun beurt ook weer door vele mensen gemaakt worden. Die effecten zouden ze zelf ook prima toe kunnen voegen en dat handje vol ontwikkelaars van Nvidia is een druppel op een gloeiende plaat.
Het is gewoon een ouderwetse geldkwestie, leg een zak met geld op tafel en ineens gaan er een hoop deuren voor je open, zo gaat dat in het bedrijfsleven. Dat er vervolgens bij sommige games rare dingen gebeuren als je een AMD kaart in je PC hebt zitten zou na al die jaren toch niemand meer moeten verbazen, maar oogkleppen verkopen ook vandaag de dag nog altijd goed.
Juist als bedrijfskundige kan ik AMD geen mooi bedrijf vinden. Te slechte cijfers, te slechte keuzes. Als je alles optelt dan is het een bedrijf dat over de laatste 20 jaar alleen maar verlies heeft gecreëerd. Als je de jaarverslagen leest en 3-4 jaar achter elkaar ziet dat AMD opmerkt dat ze bij de videokaarten meer hadden kunnen verkopen indien de productiecapaciteit hoger had gelegen dan kan ik niet anders dan denken *facepalm*. Iederen middelbare scholier met economie zal AMD kunnen uitleggen dat ze bij beperkt aanbod de prijs moeten verhogen om zo hun winst te maximaliseren. Het heeft tot Southern Islands geduurd voordat AMD op dat idee kwam. Voor de consument is het gewoon jammer dat Ati Radeon nu onder de underdogs vallen. Dat was voor de overname wel anders (de Radeon 9800 Pro serie werd de rolls royce van de videokaarten genoemd).Ik snap persoonlijk nooit dat mensen zich zo identificeren met het merk van hun grafische kaart. Ik vind AMD een mooi bedrijf, maar als ze iets doen waar ik niet blij van wordt hoor je mij dat echt niet goed praten. Ik voorzag een mogelijkheid voor Linux om eindelijk Windows het vuur aan de schenen te leggen met Mantle, in plaats daarvan werd het DX12 op Windows 10. Ook goed dacht ik, tot ik Windows 10 zelf uitprobeerde. Dag privacy, hallo OS wat mij vertelt hoe ik mijn PC mag gebruiken i.p.v. omgekeerd. Dat was dus heel snel weer terug naar Windows 7, maar zonder Windows 10 ook geen DX12 natuurlijk. En bedankt AMD.
Nee ik verwacht niet dat de Khronos Group met Vulkan ineens wel in staat zal zijn met Microsoft te concurreren. Helaas.
Technisch kan ik hun producten natuurlijk wel mooi vinden
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Dat er zoveel performance winst ten opzichte van de cpu was kwam vooral omdat Nvidia geen enkele moeite heeft gestopt in het begin om de cpu code te optimaliseren. Volgens mij had Werelds hier een aantal posts over.sdk1985 schreef op woensdag 16 december 2015 @ 14:25:
[...]
Tja ik denk dat je het punt van PhysX hebt gemist. Het ging meer om cpu offloaden (en daarmee betere physx physics mogelijk maken). Vergeet niet dat we in die tijd te maken hadden met een stilstand in cpu land. Zo erg dat hier op tweakers zelfs een artikel verscheen dat snellere gpu's geen zin meer hadden: reviews: 2010: Nvidia en AMD nek aan nek . Er zijn een aantal games geweest waarbij Physx een flinke fps boost opleverde. Ik kan me er één herinneren waarbij het van 40 naar 60 fps ging. Dat was een racegame (een soort fast and furious game).
Uiteindelijk is dat concept van cpu offloading anders toegepast in de vorm van CUDA, waar iedereen NVidia voor gek mee verklaarde. Het ging immers te kostte van de game performance. Het heeft ze echter de Pro markt gebracht met bijbehorende marges.
Een heleboel physics effecten die de gpu physx toevoegd zijn over de top en slaan nergens op. Het ziet er misschien leuk voor mensen die niks van physics weten maar echt realistisch is het niet (doelt bijvoorbeeld op het vliegende papier in Batman), overigens kan dit ook aan de developers liggen
Je zit hier volledig fout.sdk1985 schreef op woensdag 16 december 2015 @ 14:25:
Tja ik denk dat je het punt van PhysX hebt gemist. Het ging meer om cpu offloaden (en daarmee betere physx mogelijk maken). Vergeet niet dat we in die tijd te maken hadden met een stilstand in cpu land. Zo erg dat hier op tweakers zelfs een artikel verscheen dat snellere gpu's geen zin meer hadden: reviews: 2010: Nvidia en AMD nek aan nek . Er zijn een aantal games geweest waarbij Physx een flinke fps boost opleverde. Ik kan me er één herinneren waarbij het van 40 naar 60 fps ging. Dat was een racegame (een soort fast and furious game).
Uiteindelijk is dat concept van cpu offloading anders toegepast in de vorm van CUDA, waar iedereen NVidia voor gek mee verklaarde. Het ging immers te kostte van de game performance. Het heeft ze echter de Pro markt gebracht met bijbehorende marges.
PhysX (in huidige vorm) versnelt ten eerste bij lange na niet alle physics (graag de scheiding tussen PhysX en physics houden
Die performance boost waar jij het over hebt (Bang Bang Racing wellicht?) is gegarandeerd iets geweest waar een idioot aantal particles op het scherm getoverd werd. Dat zijn allemaal simpele berekeningen, maar in gigantische aantallen - dus ja, daar zal een GPU snel doorheen knallen.
Niemand verklaarde Nvidia voor gek met CUDA en het kwam ook niet voort uit PhysX of AGEIA. Het is juist andersom gegaan; Nvidia had CUDA al (2006) en was (net als ATI) bezig met physics via GPGPU. In plaats van dat laatste af te maken hebben ze echter AGEIA over genomen (2008) en de bestaande engine een CUDA layer gegeven. Het is ook CUDA waar ze de "pro" (HPC) markt mee hebben veroverd. Geen hond gebruikt daar PhysX of GameWorks.
Het probleem is echter dat AGEIA's hardware beter geschikt was (en eigenlijk nog steeds is). Een GPU werkt gemiddeld met meer latency dan AGEIA's hardware, waardoor de delen die op de GPU kúnnen lopen vrij veel impact hebben. Daarnaast zijn er simpelweg dingen waar een CPU nog steeds veel beter geschikt is dan een GPU; AGEIA's hardware zat dan ook ergens tussen een GPU en CPU in.
Het gevolg is dat Nvidia's versie van PhysX nog steeds 70% van het werk aan de CPU over laat. Er is in verhouding maar heel weinig dat GPU versneld wordt. De meeste games waar PhysX in zit zijn dus ook helemaal niet GPU versneld; er zijn met pijn en moeite 60 games met hardware (GPU) versnelling, waarvan een derde ook nog eens van vóór de overname stamt. Zal ik er voor de gein eens een paar opnoemen? Mag jij zeggen of je ziet wat al deze games gemeen hebben. Shattered Horizon, Sacred 2, Metro, Mafia II, Batman games, Borderlands 2, AC4. Stuk voor stuk games die nou niet bepaald bekend staan vanwege hun geweldige optimalisatie. En stuk voor stuk games waar de PhysX implementatie vooral om belachelijke effecten draait. De exploderende stapels papier in Batman (je kleine teen is erg sterk blijkbaar). De duizenden particles en brokstukken als je met een 9mm op een pilaar van gewapend beton schiet in Mafia 2. De gigantische rookwalm van de pistolen in AC4.
En weet je wat het mooiste is? Alles wat je nu ziet had AGEIA al, met uitzondering van het haar. Cloth, volumetric fog, particles - ze hadden het allemaal al. Het heeft 6 jaar geduurd tot Nvidia de CPU-code eens een beetje begon te optimaliseren (door SSE instructies te gebruiken bijvoorbeeld..of multi-threading, beide versie 3.1+ - meeste games zitten op 2.8.x) en daar hebben we in games nog steeds niet veel van gezien. Nvidia heeft echt geen sodemieter met die technologie gedaan.
Maar wacht! Het wordt nog veel erger. We weten allemaal wel dat de physics in de meeste games er niet veel op vooruit zijn gegaan in de laatste 10 jaar. Sterker nog, HL2 deed toen al meer dan de meeste games nu doen. En de meeste games die daadwerkelijk iets van physics hebben, gebruiken Havok. Zelfs AC4 gebruikt Havok voor alle physics - inclusief het water (de ironie
Dat wil niet zeggen dat PhysX in z'n geheel een stuk stront is. De core zoals die in UE verwerkt zit is qua features (rigid-body / collisions) gewoon in orde - dit draait ook 100% op de CPU. Qua efficiëntie nog steeds geen Havok of Bullet, maar we hebben tegenwoordig genoeg CPU kracht daar voor. Nvidia claimt "300+ games" met PhysX, maar 75% gebruiken alleen deze core en voeren dan ook geen Nvidia logo. De games met de mooiste / leukste physics draaien stuk voor stuk op Havok. Ik hoef maar naar Red Faction te kijken. Ik wacht nog steeds op een TWIMTBP game die ook maar enigzins in de buurt van die games komt.
Dus nee, de overname van AGEIA heeft geen enkel positief effect gehad. Wat een positief effect gehad zou hebben is als Nvidia voor de verandering eens met ATI/AMD had samen gewerkt om tegen AGEIA op te boksen. PhysX en GameWorks zijn en blijven een grote grap. Zeker vergeleken met Havok heeft PhysX helemaal geen impact gehad op de industrie, behalve dan de negatieve aspecten die uit de marketing deals voort zijn gekomen.
Ik hoop dan ook van harte dat Microsoft flink wat geld in Havok gaat steken (voor het geval iemand dit nog niet wist: Intel was sinds 2007 eigenaar van Havok, sinds Oktober dit jaar is dat Microsoft). En als ze dat doen, is dat vooral in samenwerking met AMD. Overigens doet Havok meer dan alleen physics, er zijn ook tal games die hun AI (jawel) en cloth via Havok doen bijvoorbeeld (o.a. AC4 dus).
Nee hoor:
https://www.techpowerup.c...G/Ageia_PhysX_Card/4.html

De grote vraag was toen, zie review, of we met de opkomst van Multi-core cpu's niet een 3e of 4e core konden gebruiken voor realitsischere games:
Waarmee ik overigens niet wil beweren dat de Nvidia PhysX implementatie een geweldige succes is... Ik geef alleen aan dat het in die tijd door de vertraagde cpu ontwikkelingen anders lag en het niet vreemd is dat het niet gratis wordt gedeeld met AMD.Real interactivity was always an aspect in games, which designers tried to reach, but never achieved. First attempts were made with scripted interactivity within the virtual realm. Red Fraction is such an example. It boasts the possibilty of destroying certain walls and other items in the game, but was limited to how far and what you could destroy. In recent years with multi core CPUs the question arises if a second, third or fourth core could not be used to calculate real life interactivity within games to make them more realistic. While some game designers have taken that route to enable better artificial intelligence or unload certain tasks from the GPU unto the CPU, Ageia is the first company to actually offer a physics processing unit, or PPU.
...
While the adoption of GPUs has gone smoothly, as it did bring real and foremost simply implemented benefits, this is not the case with PPUs. The benefits are apparent when playing old games like Quake 1 on two identical systems with and without a dedicated 3D graphic card like the 3Dfx Voodoo. You had better effects with OpenGL back in the day, without a loss of overall performance. All you got were benefits, but no real draw backs. This is not as easy with PPUs as the physics calculations are done to a certain extent by the CPU. Physics computations are not an area which simply did not exist before the release of the Ageia PhysX PPU. The new processor can simply do them better, faster and also take the load off of a CPU, but the extra effects tend to tax the graphic card, thus reducing the overall frame rate delivered.
Verder lijkt het mij dat je de plank volledig mis slaat door te stellen dat Nvidia met AMD had moeten samenwerken om tegen Ageia op te boksen, want het was natuurlijk een bedrijf van niets... Was het overname bedrag niet iets van 30 miljoen? De vooruitzichten voor het product waren toen ook positief omdat veel OEMs aangaven het te gaan gebruiken (zelfde bron).
Mbt Cuda: Tja de negatieve meningen mbt cuda zijn wel terug te vinden op o.a. tweakers
Spel was overigens geen big bang racing
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Oh, dat gold wel voor AGEIA's oplossing, maar na de overname niet hoorsdk1985 schreef op woensdag 16 december 2015 @ 20:37:
Nee hoor:
https://www.techpowerup.c...G/Ageia_PhysX_Card/4.html
[afbeelding]
De grote vraag was toen, zie review, of we met de opkomst van Multi-core cpu's niet een 3e of 4e core konden gebruiken voor realitsischere games:
Zoals ik al zei, er kan nu nauwelijks nog iets van de CPU weg gehaald worden. Rigid body? CPU. Cloth? CPU. Fluid? CPU. AGEIA kon dit op hun PPU wel gewoon aan, omdat hun "cores" geen simpele SIMD's waren. Het waren geen volwaardige CPU cores zoals wij die kennen, maar ze waren wel stukken krachtiger dan een shader zelfs nu is. Het ging dan ook om tientallen en geen honderden of duizenden zoals een GPU, maar wel nog meer dan een CPU zelfs nu nog heeft. Het geheel deed dan ook zo'n 20 miljard instructies per seconde (ter vergelijking; G80 deed er "slechts" zo'n 80-85 miljard), met 250 GB/s aan interne bandbreedte (cache). En dat was ook nog op 130nm, stel je voor wat er nu mogelijk zou zijn...vreemd genoeg is het juist Intel die het dichtst in de buurt is gekomen van wat AGEIA had, met Larrabee en de huidige aftreksels daarvan.
Dat ze het niet delen begrijp ik vanuit een bedrijfs standpunt wel, maar dat neemt niet weg dat het nauwelijks invloed op de industrie heeft gehad. Het beetje invloed dat er uit is voort gekomen is slechts negatief.Waarmee ik overigens niet wil beweren dat de Nvidia PhysX implementatie een geweldige succes is... Ik geef alleen aan dat het in die tijd door de vertraagde cpu ontwikkelingen anders lag en het niet vreemd is dat het niet gratis wordt gedeeld met AMD.
Het was zeker een bedrijf van niets, maar in de twee jaar dat ze echt bezig waren hebben ze wel meer aandacht gekregen en meer "wins" binnen weten te slepen dan Nvidia in de eerste 4 jaar na de overname. Zelfs nu staat de teller van Nvidia in 7 jaar maar nét op 2 keer zo veel als AGEIA in 2 jaar tijd had bewerkstelligd. De UE3 implementatie stamt bijvoorbeeld al uit de AGEIA tijd.Verder lijkt het mij dat je de plank volledig mis slaat door te stellen dat Nvidia met AMD had moeten samenwerken om tegen Ageia op te boksen, want het was natuurlijk een bedrijf van niets... Was het overname bedrag niet iets van 30 miljoen? De vooruitzichten voor het product waren toen ook positief omdat veel OEMs aangaven het te gaan gebruiken (zelfde bron).
Als AGEIA niet was over genomen hadden ze zeker wel meer impact gehad. Nvidia en AMD hadden niet voor niets al aangekondigd met hun eigen versnellingen te komen. Havok FX deed toen ook al via unified shaders kleine beetjes werk. Ik zeg niet dat Nvidia's zet strategisch niet slim was, ik zeg dat het voor de industrie en de consumenten beter was geweest als ze de concurrentie waren aangegaan. Dan had alles er nu stukken anders uitgezien
Hè? Negatief in welke zin dan? Dat moet ik toch volledig gemist hebben, want CUDA is niet iets dat ook maar enige invloed op wat dan ook had, behalve de dingen die daadwerkelijk van CUDA gebruik maakten. En juist daar waren grote voordelen te vinden, zoals bij video (en-/de-)coderenMbt Cuda: Tja de negatieve meningen mbt cuda zijn wel terug te vinden op o.a. tweakers. Daar hoeven we toch niet over te discussiëren? De ontvangst van o.a. de GTX 260 was niet heel positief. AMD had in de volksmond toen echt wel de win te pakken met de 4870. Waarbij dus CUDA de zwarte piet kreeg toegeschoven.
Hmmm..dat klinkt als een Criterion game, dus Burnout of een rip-off daarvan. Bij mijn weten heeft geen van de Burnouts iets van PhysX er in, maar Blur (rip-off) wel als ik het me goed herinner?Spel was overigens geen big bang racing. Het was volledig in de stijl van fast and the furious. Je kon echter ook powerups oppakken. Maar goed, dat was echt een uitzondering. In de overige 999 games had je niets aan PhysX.
Geweldig om de bijna perfecte balans in marktaandeel te zien.sdk1985 schreef op woensdag 16 december 2015 @ 14:25:
[...]
Vergeet niet dat we in die tijd te maken hadden met een stilstand in cpu land. Zo erg dat hier op tweakers zelfs een artikel verscheen dat snellere gpu's geen zin meer hadden: reviews: 2010: Nvidia en AMD nek aan nek
Hopelijk gebeurt er in 2016 hetzelfde.
Nvidia overschat Pascal op de haalbaarheid, en brengt een tweede GTX480 uit.
AMD profiteert van de investeringen die nu gedaan zijn.
Jeroenneman kan een GTX1060 halen voor 150 euro...
One can dream...
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Als we de GTX480 als voorbeeld nemen, dan hoop ik natuurlijk op een flop qua x80 en x70, waarna ze opeens wel een goede x60 eruit kunnen halen. Met welke chip ze dat dan gaan doen, zal me werkelijk worst wezen.-The_Mask- schreef op donderdag 17 december 2015 @ 15:12:
Ligt eraan wat je onder een GTX 1060 verstaat. GP104, GP106 of GP107 en dan volledig ingeschakeld of meerdere stream processors uitgeschakeld?
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Hehe, ik bedoelde natuurlijk dat de onderliggende chip weinig uitmaakt, zolang de prestaties er niet onder lijden. Of ze de goede chip dan GP106, 107 of 666 noemen, zal me weinig uitmaken.-The_Mask- schreef op donderdag 17 december 2015 @ 15:48:
Huh oké, nou een GP107 voor 150 euro moet wel mogelijk zijn. Zal het doorgeven aan nVidia dat ze een GP107 wel als GTX 1060 kunnen uitbrengen dan.Men koopt schijnbaar toch gewoon op naam en niet op specs en prestaties. Je ziet het trouwens veel vaker, men wil schijnbaar ook liever een Ti kaart omdat het beter klinkt. Paar weken terug iemand nog op het forum welke graag een GTX 960 Ti wou, maar nadat het duidelijk was dat als deze chip zou komen het eigenlijk een GTX 970 LE zou zijn qua specs en ook prestaties was het ineens niks meer.
Hetzelfde gebeurde bij de GTX460. De GTX480 had flinke problemen, maar de mid-range kaart gebruikte een andere chip, en was een prima kaartje.
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
Dat is namelijk iets wat nVidia de laatste tijd vaker heeft gedaan. Dat betekent dus ook dat alles opschuift en een eventuele GTX 1060 helemaal niet zo snel hoeft te zijn. Kijk en praat dan ook over codenamen voor videokaarten welke er nog niet zijn. Dan is het tenminste duidelijk waar het over gaat.
Als nVidia immers alles één plaats op schuift en een GP107 uitbrengt als GTX 1060 is dit de opvolger van de GM107 en die zit in de GTX 745, 750 en 750 Ti. Zo'n kaart voor 150 euro is nu niet echt heel bijzonder.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Tja, voorspellingen zijn toch niet te doen.-The_Mask- schreef op donderdag 17 december 2015 @ 16:14:
Juist aan de codenaam kun je veel zien, veel meer als aan de normale naam. En omdat 14 en 16nm FinFET een nieuw proces is kan zo maar zijn dat de high-end GPU niet gelanceerd wordt in de volgende generatie, maar pas de generatie daarna.
Dat is namelijk iets wat nVidia de laatste tijd vaker heeft gedaan. Dat betekent dus ook dat alles opschuift en een eventuele GTX 1060 helemaal niet zo snel hoeft te zijn. Kijk en praat dan ook over codenamen voor videokaarten welke er nog niet zijn. Dan is het tenminste duidelijk waar het over gaat.
Als nVidia immers alles één plaats op schuift en een GP107 uitbrengt als GTX 1060 is dit de opvolger van de GM107 en die zit in de GTX 745, 750 en 750 Ti. Zo'n kaart voor 150 euro is nu niet echt heel bijzonder.
Misschien schrappen ze de hele GTX voorvoegsels wel. Wie weet.
Waar het eigenlijk op neer komt: Nvidia mag best eens een misser maken, als dat ten goede komt van de concurrentie, met als eindresultaat goedkopere chips voor iedereen. Echt spannend is het namelijk niet meer nu.
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
FTFY.Jeroenneman schreef op donderdag 17 december 2015 @ 18:05:
Echt spannend is het namelijk niet meer binnen GameWorks titels.
De Fury X en de 980 Ti wisselen elkaar toch regelmatig af aan de top in titels waar er geen overduidelijk verschil in optimalisatie te zien is, evenals de vergelijkbare kaarten eronder. Het enige dat niet spannend is, is het gebrek aan echt nieuwe ontwerpen van kaarten van beide kanten, maar dat voorspelde men al in 2014 door de aanhoudende issues met de fabs. Op dit vlak vond ik de Fury X juist vrij interessant met zijn small form factor met standaard waterkoeling en het eerste gebruik van HBM.
Toch apart dat binnen een AMD titel als Battlefield 4 Nvidia juist sterke resultaten neerzet. Eigenlijk moet AMD de komende generatie de push naar 4K doorzetten. Juist op hoge resoluties zijn ze sterker dan Nvidia. En ze moeten met Crimson eindelijk bewijzen dat ze wel degelijk goede software kunnen schrijven (als was de launch daar echt weer een typisch voorbeeld van wat je juist niet wil als bedrijf)Phuncz schreef op donderdag 17 december 2015 @ 18:11:
[...]
FTFY.
De Fury X en de 980 Ti wisselen elkaar toch regelmatig af aan de top in titels waar er geen overduidelijk verschil in optimalisatie te zien is, evenals de vergelijkbare kaarten eronder. Het enige dat niet spannend is, is het gebrek aan echt nieuwe ontwerpen van kaarten van beide kanten, maar dat voorspelde men al in 2014 door de aanhoudende issues met de fabs. Op dit vlak vond ik de Fury X juist vrij interessant met zijn small form factor met standaard waterkoeling en het eerste gebruik van HBM.
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
People as things, that’s where it starts.
Havok ging daar op in met ontwikkelen van Havok FX.
Physics op gpu ATI of nV of whatever. GPU merk onafhankelijk. Ja dat zag er nogal veel belovend uit. Je vorige Gkaart erbij.
Larabee was intel mee bezig. En iNtel zag gpgpu toch ook bedreiging voor hun CPU dus nam havok over om HavokFX te killen. AMD die ATI opgekocht had kon niet veel.
Maar nV nam Ageia PHysX SDK over. Als reactie tegen iNtel.
Het is namelijk iNtel naaide AMD en nV.
Nvidia liep toen zwaar voor tov AMD en zag meer intel met larabee als bedreigen.
Was Larabee mogelijk sucses geweest zou nV samen met AMD mogelijk een front tegen Intel kunnen zetten.
Maar helaas larabee flopte daarvan is XeonPhi overgebleven.
En toen AMD in betere periode kwam ging de war tussen die twee verder. En werd PhysX voor de nV gpu car gespannen.
Dus het is goed teken dat Havok onder MS valt. Gpgpu support wordt niet meer geblokkeerd door intel.
Het geeft mij wel te denken. Wie eigenaar van libary is kan de boel flink dwars bomen. Ook end of life gaan van API kan ook een reden zijn om toch zelf iets te implementeren.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dit topic is gesloten.