Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:02
dikkedennis schreef op zaterdag 05 maart 2016 @ 16:33:
Kan iemand zo herinneren hoe nVidia nieuwe architectuur introduceert? Beginnen zij vaak met het high-end segment om vervolgens de mid-range kaarten te lanceren, of is daar geen pijl op te trekken over de afgelopen paar jaar? Ik ben zeer nieuwsgierig wat beide kampen binnenkort gaan introduceren. Verwachten jullie een significante verbetering t.o.v. de huidige generatie?
Het commentaar op Nvidia was vroeger altijd dat ze te complexe kaarten hadden die te veel stroom verbruikten. Ze zijn toen (vanaf fermi) op de power efficiency tour gegaan. Daarnaast zagen we toen steeds vaker eerst een midrange kaart. Meest recent was de eerste maxwell een 750 Ti. Maar ook eerder zag je dat kaarten als de Titan veel later kwamen. In een grijs verleden zag je wat vaker eerst een topkaart die daarna "generfd" werd. Zo ver ik weet volgde Ati al langer die taktiek (eerst mid/highend uitbrengen en dan pas de topkaart). Gezien het financiële succes van Nvidia met de laatste generaties is het de meest logische optie om de huidige strategie te vervolgen. Dus geen hele extreme kaarten bij launch (maar als de architectuur heel goed is dan kan het nog steeds een x8 worden). Persoonlijk zie ik natuurlijk graag meteen een hele lineup :Y) .

[ Voor 14% gewijzigd door sdk1985 op 07-03-2016 16:40 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
sdk1985 schreef op maandag 07 maart 2016 @ 16:34:
[...]

Persoonlijk zie ik natuurlijk graag meteen een hele lineup :Y) .
Jij hebt liever niet dat als een kaart klaar is die direct gelaunched wordt? Jij hebt liever dat de kaart pas gelaunched wordt als alle kaarten gereed zijn? Denk dat je één van de weinigen bent die liever heeft dat de kaarten een half jaar tot een jaar later komen dan. :p

Maar ik weet anders wel een oplossing voor jou. Gebruik gewoon een jaar niet het internet en kijk niet bij winkels/webshops dan lijkt het over een jaar dat ze allemaal gelijk komen. :+

[ Voor 17% gewijzigd door -The_Mask- op 07-03-2016 16:54 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • +1 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:02
Half jaar tot een jaar is wat overdreven. Maar van mij mogen ze best een stuk of 6 kaarten tegelijk launchen. Intel komt toch ook niet elke 3 maanden met een nieuwe cpu :). Bij Maxwell heb ik gewacht op de 960 Ti die nooit kwam :$ .

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Daar is niks overdreven aan, tussen de GTX 750 Ti op 18 februari 2014 en GTX 980 Ti op 1 juni 2015 zit bijna anderhalf jaar en het verschil tussen de eerste Maxwell 2 kaart de GTX 970 op 19 september 2014 en de laatste de GTX 980 Ti op 1 juni 2015 zit ook driekwart jaar.

Een videokaart/GPU ontwerpen is niet iets simpels zoals het vouwen van een papiertje, zoiets kost nu éénmaal heel veel tijd, geld en mensen. Als je dan alles tegelijkertijd wil doen heb je of veel meer mensen en geld nodig of moet je gewoon wachten met lanceren van de eerste kaart tot de laatste klaar is.

Beide ideeen zijn gewoon dom, de eerste kost je gewoon heel veel extra geld en mensen en de tweede zorgt er voor dat gewoon niks verdient doordat je concurrent wel slim genoeg is om het nieuwe product direct te lanceren.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 12-09 21:26
Nieuwe 364.47 drivers zijn uit met "mainstream" Vulkan support. LET OP! Veel gebruikers melden dat ze "blackscreens" en BSOD's krijgen. Install at own risk (terwijl het toch WHQL drivers zijn, zit zo weinig waarde aan dit keurmerk...): http://www.geforce.com/wh...me-ready-drivers-released

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
sdk1985 schreef op maandag 07 maart 2016 @ 16:34:
[...]

Het commentaar op Nvidia was vroeger altijd dat ze te complexe kaarten hadden die te veel stroom verbruikten. Ze zijn toen (vanaf fermi) op de power efficiency tour gegaan. Daarnaast zagen we toen steeds vaker eerst een midrange kaart. Meest recent was de eerste maxwell een 750 Ti. Maar ook eerder zag je dat kaarten als de Titan veel later kwamen. In een grijs verleden zag je wat vaker eerst een topkaart die daarna "generfd" werd. Zo ver ik weet volgde Ati al langer die taktiek (eerst mid/highend uitbrengen en dan pas de topkaart). Gezien het financiële succes van Nvidia met de laatste generaties is het de meest logische optie om de huidige strategie te vervolgen. Dus geen hele extreme kaarten bij launch (maar als de architectuur heel goed is dan kan het nog steeds een x8 worden). Persoonlijk zie ik natuurlijk graag meteen een hele lineup :Y) .
Niet vanaf Fermi, vanaf Kepler; Fermi was een erg inefficiënt monster ;)

En ik denk dat waar jij op doelt is dat ze eerst volledige chips uitbrachten, later chips met uitgeschakelde danwel geknipte (lasercut) clusters. Dat doen ze nu nog (beide fabrikanten). Een 970 is nog steeds een geknepen 980, terwijl een 980 geen geknepen 980 Ti is. Duidelijk andere chips. En zoals ik al zei, bij Kepler is het vrijwel zeker noodzaak geweest om niet wéér zo'n klap als met Fermi te moeten verwerken. Bij Maxwell geloof ik dat niet, ik denk dat ze daar heel bewust de grote chip hebben achter gehouden.

AMD heeft ook nooit mid-end eerst uitgebracht, AMD komt nog altijd eerst met high-end - enige uitzondering hier op is Barts (68x0) geweest, omdat dat een voortzetting van Cayman (VLIW5) was, terwijl de rest dat niet was. Die kwam dus een maandje eerder, simpelweg omdat hij eerder klaar was. Maar voor de rest? 3870, 4870, 5870, 7970, R9 290X, R9 Fury X allemaal de "eerste" in hun "generatie" (voor zover je de afgelopen 2-3 jaar nog van generaties kunt praten 8)7 )/

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Op 40nm had AMD eerst natuurlijk nog wel de HD4770 als "testchip".

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Nature
  • Registratie: Maart 2012
  • Laatst online: 21-08 15:52
-The_Mask- schreef op maandag 07 maart 2016 @ 14:19:
[...]

De hype wordt gemaakt op internet, niet door AMD. De kaart zelf is gewoon een prima videokaart en is ook precies wat AMD beloofde, sneller als een GTX 980 Ti op 4K, alleen overgeklokte GTX 980 Ti videokaarten zijn sneller. Maar AMD concurreert met nVidia en niet met willekeurige OEM's, zou ook vreemd zijn als ze in hun slides alle verschillende versies van elke videokaart gingen benoemen. :p
Dan kunnen ze misschien beter zeggen sneller dan een reference GTX 980 TI haast niemand koopt een reference kaart van Nvidia. Nvidia geeft de markt iets om wat mee te doen te tweaken en geld mee te verdienen. De fury X daar kan je niets mee fabrikanten kunnen alleen een sticker erop plakken, de die hard fans noemen het nog een overclockers dream omdat ''het zo'n uitdaging is om die paar Mhz extra er uit te persen met n2''. ;)

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:02
Werelds schreef op maandag 07 maart 2016 @ 19:31:
[...]

Niet vanaf Fermi, vanaf Kepler; Fermi was een erg inefficiënt monster ;)

En ik denk dat waar jij op doelt is dat ze eerst volledige chips uitbrachten, later chips met uitgeschakelde danwel geknipte (lasercut) clusters. Dat doen ze nu nog (beide fabrikanten). Een 970 is nog steeds een geknepen 980, terwijl een 980 geen geknepen 980 Ti is. Duidelijk andere chips. En zoals ik al zei, bij Kepler is het vrijwel zeker noodzaak geweest om niet wéér zo'n klap als met Fermi te moeten verwerken. Bij Maxwell geloof ik dat niet, ik denk dat ze daar heel bewust de grote chip hebben achter gehouden.

AMD heeft ook nooit mid-end eerst uitgebracht, AMD komt nog altijd eerst met high-end - enige uitzondering hier op is Barts (68x0) geweest, omdat dat een voortzetting van Cayman (VLIW5) was, terwijl de rest dat niet was. Die kwam dus een maandje eerder, simpelweg omdat hij eerder klaar was. Maar voor de rest? 3870, 4870, 5870, 7970, R9 290X, R9 Fury X allemaal de "eerste" in hun "generatie" (voor zover je de afgelopen 2-3 jaar nog van generaties kunt praten 8)7 )/
Fermi was inderdaad niet de power efficiency. Wel nieuwe richting overigens:
For sixteen years, NVIDIA has dedicated itself to building the world’s fastest graphics
processors. While G80 was a pioneering architecture in GPU computing, and GT200 a major
refinement, their designs were nevertheless deeply rooted in the world of graphics. The Fermi
architecture represents a new direction for NVIDIA. Far from being merely the successor to
GT200, Fermi is the outcome of a radical rethinking of the role, purpose, and capability of the
GPU.
Rather than taking the simple route of adding execution units, the Fermi team has tackled
some of the toughest problems of GPU computing. The importance of data locality is
recognized through Fermi’s two level cache hierarchy and its combined load/store memory
path. Double precision performance is elevated to supercomputing levels, while atomic
operations execute up to twenty times faster. Lastly, Fermi’s comprehensive ECC support
strongly demonstrates our commitment to the high-performance computing market.
On the software side, the architecture brings forward support for C++, the world’s most
ubiquitous object-orientated programming language, and Nexus, the world’s first integrated
development environment designed for massively parallel GPU computing applications.
With its combination of ground breaking performance, functionality, and programmability, the
Fermi architecture represents the next revolution in GPU computing.
Met betrekking tot die high end strategie. Denk bijvoorbeeld even terug aan 2008. In 2008 kwam Nvidia met de GTX 280 en GTX 260 (mislukte 280). Pas in 2009 kwamen de tragere 250,240,230,220. Ze begonnen standaard met de performance crown kaart. Wikipedia: GeForce 200 series

AMD deed het toen al anders. Die kwamen in 2008 met de 4850 en wat later met de 4870. Die laatste moest concurreren met de GTX 260. Er was toen dus nog geen antwoord op de top kaart van NVidia. Dat kwam pas een paar maanden later (4870X2). Dat is duidelijk een andere richting van ontwikkelen/lanceren.

Met de 500 serie ging dat bij Nvidia eigenlijk nog precies zo. Eerst kwam de 580 en pas het volgende jaar kwamen de 520,545,550,560, enz. Wikipedia: GeForce 500 series

Met Kepler veranderde Nvidia van strategie. Binnen 2 maanden van de GTX 680 waren er al kaarten als de GT 620. Wikipedia: GeForce 600 series

Met Maxwell zagen we vervolgens eerst een 750 Ti. Vervolgens duurde het 7 maanden voor we wat snellers zagen. Dat zit heel dicht op wat AMD al in 2008 deed.

Dat gezegd hebbende hoop ik dus zelf meer op een brede launch zoals bij de 600 serie, dan zoals bij de 900 serie. Of ze dan eerst met een x80 of een x50 komen maakt me dan eigenlijk niet zo veel uit.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
-The_Mask- schreef op maandag 07 maart 2016 @ 21:09:
Op 40nm had AMD eerst natuurlijk nog wel de HD4770 als "testchip".
Maar dat was geen nieuwe generatie of architectuur :)

Er zaten wel wat wijzigingen in ten opzichte van andere RV7xx chips, maar het was wel heel duidelijk nog steeds RV7xx.
sdk1985 schreef op maandag 07 maart 2016 @ 22:25:
AMD deed het toen al anders. Die kwamen in 2008 met de 4850 en wat later met de 4870. Die laatste moest concurreren met de GTX 260. Er was toen dus nog geen antwoord op de top kaart van NVidia. Dat kwam pas een paar maanden later (4870X2). Dat is duidelijk een andere richting van ontwikkelen/lanceren.
Nee hoor, 4870 lanceerde gewoon tegelijkertijd met de 4850. RV770 XT en Pro respectievelijk. Ik denk dat je in de war bent met RV790, de 4890. Dat was een refresh. Die staat tot de 4870 als een GTX 285 tot een GTX 280 staat :)
Met de 500 serie ging dat bij Nvidia eigenlijk nog precies zo. Eerst kwam de 580 en pas het volgende jaar kwamen de 520,545,550,560, enz. Wikipedia: GeForce 500 series
Dan moet je ook wel het hele verhaal vertellen: dat was ook een top-down release en dat is vooral vanwege marketing. Eerst de beste chips, maand later komt het kleine broertje (560 was er al in januari). "Het volgende jaar" klinkt ook erger dan het is, aangezien GF110 in December uit kwam :P
Met Kepler veranderde Nvidia van strategie. Binnen 2 maanden van de GTX 680 waren er al kaarten als de GT 620. Wikipedia: GeForce 600 series
Nogal wiedes, aangezien dat allemaal rebrands waren. Je vergeet hier ook even doodleuk te melden dat de 660 bijvoorbeeld ruim 5-6 maanden later pas kwam. En het verhaal rond Kepler heb ik al uitgelegd, daar had vrijwel zeker een GK100 aan vooraf moeten gaan, met een maand later GK104.

Sterker nog, de hele Kepler generatie heeft een erg gebroken release cycle gehad. De 670 kwam pas een maand ná de 680 uit; normaal gesproken zou Nvidia die gewoon tegelijkertijd uitgebracht hebben, want het is gewoon dezelfde chip met uitgeschakelde clusters. Het wordt nog leuker: de dual GPU kaart kwam uit vóór de gecastreerde chip. Wederom: dat is noodzaak geweest. En dan komt GK106 dus nog eens 4 maanden daarna.

Dat jij alleen naar de kaart nummers kijkt is in dit geval wel heel fout. Ik weet dat je daar liever naar kijkt, maar in dit geval moet je dat absoluut niet doen.

Waarom? Omdat er van Kepler geen volledige lineup bestaat. Meer dan de helft van de 600 serie zijn rebrands uit het oudere segment, omdat ze een chip tekort kwamen. Allemaal die low-end chips (die nooit boeiend zijn geweest voor gamen) waren rebrands. Omdat er geen échte High-end chip was moest de mid-end iets naar boven verschuiven en dus de low-end ook. En bij de refresh (GK110) hebben ze besloten om de rest niet te refreshen, met uitzondering van GK107 die ze dan maar meteen GK208 gingen noemen 8)7

Ik wil morgen best een tabelletje maken die de chip nummers fatsoenlijk op een rij zet, maar ik raad je aan om eens goed naar de Kepler generatie te kijken. Daar klopt van alles niet en dat is echt geen bewuste strategie. Met Maxwell hebben ze dat wel gedaan, ook omdat ze wistten dat AMD aan het wachten op een nieuwe node was.

Normaal gesproken doet Nvidia gewoon een top-down release cycle, net als AMD. Met Kepler was dat niet mogelijk en met Maxwell kwam het qua marketing en kosten een stuk beter uit, want ze wisten wel al dat ze niet nóg een refresh gingen doen.

[ Voor 3% gewijzigd door Werelds op 08-03-2016 00:58 ]


Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 21:30

Trygve

Redacteur
nVidia adds shader extension to Vulkan 1.0.5

Weet even niet of dit positief is (bijdragen aan ontwikkeling van API) of negatief (vermomde GameWorks in Vulkan).

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Mogelijk is dat voor een aantal van de problemen die ze hebben met Vulkan op te lossen, maar de vraag die ik dan stel is of het niet weer een kat-en-muis spel van aanpassingen wordt, waar de fabrikanten fixes moeten bedenken voor de onbekwame/mis-managed developers.

Ik hoop dat Doom van id Software, met zijn gigantische legacy aan belachelijk goed geprogrammeerde engines (elke Quake game draait nog steeds vlekkeloos !) ons niet gaat teleurstellen, of ik doe een table-flip.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Die moet ik bookmarken als "WHQL" alweer als een belangrijk argument aangehaald wordt.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
r100 schreef op dinsdag 08 maart 2016 @ 17:06:
nVidia adds shader extension to Vulkan 1.0.5

Weet even niet of dit positief is (bijdragen aan ontwikkeling van API) of negatief (vermomde GameWorks in Vulkan).
Positief, heeft te maken met interoperability tussen SPIR-V en GLSL (shader "talen"). Is niet beperkt tot Nvidia, ondanks het feit dat de naam anders suggereert; maar waarschijnlijk wordt dat nog wel VK_KHR_glsl_shader ;)


En ja, WHQL... _O- _O- _O-

Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Phuncz schreef op dinsdag 08 maart 2016 @ 17:23:
Mogelijk is dat voor een aantal van de problemen die ze hebben met Vulkan op te lossen, maar de vraag die ik dan stel is of het niet weer een kat-en-muis spel van aanpassingen wordt, waar de fabrikanten fixes moeten bedenken voor de onbekwame/mis-managed developers.

Ik hoop dat Doom van id Software, met zijn gigantische legacy aan belachelijk goed geprogrammeerde engines (elke Quake game draait nog steeds vlekkeloos !) ons niet gaat teleurstellen, of ik doe een table-flip.
Kuch, megatextures in RAGE, kuch.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

Jeroenneman schreef op dinsdag 08 maart 2016 @ 21:36:
[...]


Kuch, megatextures in RAGE, kuch.
Mee eens dat het in het begin niet goed werkte, het idee erachter is wel goed. AMD heeft dit met GCN geimplementeerd onder de naam "Partially Resident Textures" en het is later in de DX11.2 en OpenGL 4.4 standaard opgenomen als "Tiled Resources".

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

nieuws: Nvidia kondigt GeForce 900MX-kaarten voor laptops aan

Eurgh, ik ben helaas oud genoeg om de Geforce MX series niet vergeten te zijn? Nvidia gaat hun low-end mobile GPUs vernieuwen, maar houdt de 900-series nummering aan.

nieuws: Gerucht: Geforce GTX 1080 met Pascal-gpu en 8GB gddr5x komt in mei
Interessanter nieuws, maar GDDR5X is wel niet het HBM2 wat beloofd werd. Ik vermoed dat dat dus eerst bij de Titan-kaarten zal komen om dan eind van het jaar voor een high-end Ti-kaart beschikbaar te worden.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Phuncz schreef op vrijdag 11 maart 2016 @ 14:46:
nieuws: Nvidia kondigt GeForce 900MX-kaarten voor laptops aan

Eurgh, ik ben helaas oud genoeg om de Geforce MX series niet vergeten te zijn? Nvidia gaat hun low-end mobile GPUs vernieuwen, maar houdt de 900-series nummering aan.
GM108, dus eerste generatie Maxwell zoals de GM107 in de GTX 750 (Ti) en geen tweede generatie zoals de o.a. de GM204 in de GTX 970/980, dat is wel jammer.
nieuws: Gerucht: Geforce GTX 1080 met Pascal-gpu en 8GB gddr5x komt in mei
Interessanter nieuws, maar GDDR5X is wel niet het HBM2 wat beloofd werd. Ik vermoed dat dat dus eerst bij de Titan-kaarten zal komen om dan eind van het jaar voor een high-end Ti-kaart beschikbaar te worden.
Het gaat hier zoals verwacht ook niet over de high-end GPU, maar over een GP204, nVidia komt dus waarschijnlijk eerst niet met een high-end GPU, maar brengt de GP104 GPU uit als high-end kaart net zoals de GK104 in de GTX 680. Dat is overigens wat ik ook verwacht wat ze gaan doen, geen high-end GPU eerst die komt op zijn vroegst einde van het jaar en dus ook geen HBM2 eerst voor nVidia.
-The_Mask- schreef op woensdag 18 november 2015 @ 01:19:
nVidia's huidige strategie is om eerst de Gx104 uit te brengen als high-end GPU. Idee is dan dat deze net wat sneller is dan de huidige top zoals GTX 980 Ti, maar met een lager verbruik. Als AMD dan geen tegenhanger klaar heeft gaan ze voor hun mainstream/high-end chip, de GP104, de hoofdprijs vragen. Na een aantal maanden, wanneer de GP100 dan klaar is of wanneer AMD een tegenhanger heeft. Komen ze met de GP100 als high-end product, liefst in de vorm van een Titan voor 1000 euro, maar dat betekend weer dat AMD geen goedkope tegenhanger mag hebben. Is deze dan weer een aantal maanden op de markt dan komt er een goedkopere versie van de Titan met de helft van het geheugen en een normalere prijs.

Dit is nVidia's beoogde stategie, maar dat is alleen één die kan als AMD enkele maanden achter loopt op nVidia. Gaan ze gelijk op, dan zal nVidia hun strategie hier ook iets op moeten aanpassen.

Dus eerst, GP104 als high-end chip lanceren, dan na enkele maanden de echte high-end chip de GP100 op de markt brengen als een Titan en de GP104 naar onder schuiven en enkele maanden daarna komen met een GTX versie van de Titan GP100 met de helft van het geheugen.

[ Voor 31% gewijzigd door -The_Mask- op 11-03-2016 15:11 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Komen de Titan en Ti variante überhaupt nog dit jaar uit? Ben benieuwd of ze eindelijk de 20 TFlops gaan halen :+

Afbeeldingslocatie: https://static.tweakers.net/ext/f/O9nZnS5tR9RqryOinjSn6tnK/full.png?nohitcount=1

[ Voor 58% gewijzigd door madmaxnl op 11-03-2016 18:16 ]


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

madmaxnl schreef op vrijdag 11 maart 2016 @ 18:12:
Komen de Titan en Ti variante überhaupt nog dit jaar uit? Ben benieuwd of ze eindelijk de 20 TFlops gaan halen :+

[afbeelding]
Volgens de roadmap komt de Ti variant Q1 2017 uit

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 12-09 21:26
Dat is natuurlijk niet eerlijk. Toen was het nog niet helemaal duidelijk dat we zo lang op 28nm zouden blijven hangen. De problemen met 20 nm waren nog niet helemaal bekend toen.

[EDIT]
Toen zaten we 'nog' op 45 nm. 32 nm kwam in 2010.

[ Voor 14% gewijzigd door LongBowNL op 11-03-2016 19:27 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

Discussing the State of DirectX 12 With Microsoft & Oxide Games

A relatively rapid adoption of Windows 10 by end-users means that developers can in turn make their own leaps sooner, as they necessary critical mass will be in place sooner than with past generations. Both Baker and Langley agreed that DirectX 12 will likely see faster adoption from developers than past generations have, as the user base is building up much sooner. Also helping matters is the fact that the consoles (particularly the Xbox One) are so similar to DirectX 12 with their own respective low-level APIs, which means that developers can synchronize multi-platform titles around low-level APIs much easier than in past generations where the consoles have lagged behind. The APIs won’t be perfectly identical due to some inherent platform differences such as memory management (more on this later), but Microsoft is looking to make the Windows and console APIs as close as reasonably possible to help facilitate this.

Microsoft for their part is of course pleased with this outcome, but even within the realm of the DirectX development team they have made it clear that they aren’t done yet and want to do even more to drive the adoption of DirectX 12 for both end-users and developers and to convince the holdouts to make the jump to Win10. Now that DX12 is out, they have been working on better tools for developers to make the API more approachable and easier to debug. At the same time while Microsoft isn’t being specific, they are making it clear that they aren’t done adding features to the API, and that along with fixing bugs there’s more to come for DX12.

But what surprised me the most in our conversation on adoption was Baker’s comments on the state of DirectX 12. “DX12 is in far better shape than DX11 was in the first generation; it's way further along,” Baker said, and a lot of this has to do with the basic design of the API. Because DX12 is low-level and fairly thin, what bugs there are tend to be fairly straightforward. DirectX 11, by comparison, took years to sort out, and even then Baker doesn’t trust GPU drivers when it comes to DX11 multi-threading. DX12, by comparison, is handling upwards of 16 threads from Ashes of the Singularity without encountering any issues. Which is not to say that DX12 is already perfect, but DX12 is on the path to quickly being in a better overall state than DX11, even more than 6 years after the introduction of the latter.
Nog een leuk stukje uit het artikel, stelletje faalhazen bij MS met hun Gears of War :+.
Games that add DX12 at the last moment are benefitting the least – and Microsoft is trying to help developers integrate it sooner – whereas games that do integrate it sooner like Ashes are seeing much more significant benefits.
offtopic:
Schaamteloze copy van het CJ topic :+ , maar artikel vind ik dermate interessant dat het hier ook past.

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
ik vraag me af of GP104 echt wel zo snel uitkomt omdat niets tot nu toe wees op dat ze al zo ver waren. Ik bedoel laatst waren ze nog dingen beetje aan het misleiden betreffende dit hele gedoe. Al kan dat natuurlijk ook een smokescreen zijn geweest richting AMD.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:02
Werelds schreef op vrijdag 11 maart 2016 @ 23:33:
Thunderbolt zit niet in Intel's CPU's. Het is dan wel een "Intel standaard"; maar het is een standaard die op twee verdere standaarden voort borduurt: Thunderbolt is in feite niets meer dan PCI-e en DP door een kabeltje. Er zijn ook gewoon AM-moederborden met Thunderbolt hoor ;)


[...]

Ik geloof helemaal niet dat ze de CPU tak in de voet schieten. Ik betwijfel of de CPU tak ooit een nieuwe standaard zou ontwikkelen (het gaat niet om de connector, die kan net zo makkelijk weer DP worden in plaats van USB-C ;)). Dat krijgt niemand meer voor elkaar. In plaats daarvan verwacht ik dat ze dat gewoon op HSA gaan gooien.
De gedachtegang was niet zo heel complex/vergezocht wat mij betreft. AMD komt nu met XConnect op basis van Thunderbolt 3. Echter AMD zelf zit niet in de thunderbolt groep. Het is dus niet heel waarschijnlijk dat we bij AMD thunderbolt support op chipset niveau gaan zien. Ervan uitgaande dat Zen een succes wordt en we dus weer AMD laptops gaan zien dan is het onwaarschijnlijk dat daar een thunderbolt poort op komt. Immers een add-in kaart of iets dergelijks is duur (Asus heeft het weleens gedaan op een desktop bord). AMD zit de komende tijd nog wel vast in het low-budget segment. Niet echt een plek waar je een (Intel) chipoplossing van tientallen dollars moet verwachten.

Dat houdt dan vervolgens in dat kopers van een externe AMD Radeon kaart deze niet kunnen combineren met een laptop met een AMD cpu. Dan verlies je dus potentiele klanten bij de cpu afdeling.
-The_Mask- schreef op maandag 07 maart 2016 @ 17:06:
Daar is niks overdreven aan, tussen de GTX 750 Ti op 18 februari 2014 en GTX 980 Ti op 1 juni 2015 zit bijna anderhalf jaar en het verschil tussen de eerste Maxwell 2 kaart de GTX 970 op 19 september 2014 en de laatste de GTX 980 Ti op 1 juni 2015 zit ook driekwart jaar.

Een videokaart/GPU ontwerpen is niet iets simpels zoals het vouwen van een papiertje, zoiets kost nu éénmaal heel veel tijd, geld en mensen. Als je dan alles tegelijkertijd wil doen heb je of veel meer mensen en geld nodig of moet je gewoon wachten met lanceren van de eerste kaart tot de laatste klaar is.

Beide ideeen zijn gewoon dom, de eerste kost je gewoon heel veel extra geld en mensen en de tweede zorgt er voor dat gewoon niks verdient doordat je concurrent wel slim genoeg is om het nieuwe product direct te lanceren.
Tja wat is dom, ik vindt vooral je voorbeeld behoorlijk dom niet zo handig gekozen. Immers los van dat de 750 een soort proefballon was, zitten de 750 en de 980 niet in dezelfde serie (7xx en 9xx) en beschikken ze ook niet over dezelfde architectuur (first en second generation). Verder is het genoemde aantal van 6 kaarten tegelijk lanceren is iets heel anders dan wachten alle 20+ kaarten klaar zijn, laat staan cross generation.

Het is ook hemaal niet zo ver gezocht. Immers als bedrijf moet je voor een launch überhaupt altijd stockpilen, zeker in deze globale tijden. Tenminste als je een paper launch wil voorkomen.

Sterker nog het is ook eigenlijk meestal de realiteit. Zie bijvoorbeeld de eerder aangehaalde 6xx serie:
Afbeeldingslocatie: http://tweakers.net/ext/f/ONdX9KKCUuSxCBACZRkTp2eg/full.png
Daar zie je 14 van de 22 kaarten binnen 2 maanden lanceren (63%). Binnen de 5 maanden zit je op 17 (72%). Intel blijft natuurlijk de beste van de klas.

Zijn Intel en Nvidia dan dom? Nou nee, er zijn heel veel voordelen te verzinnen. Denk aan logistiek, marketing, economies of scale, het verkorten van de duur dat je nog met je oude producten concureert, voorlichting richting groothandel en retail, enz, enz.

Met één ding had je wel een punt (nou ja, je zat er in de buurt), producten achter houden is inderdaad makkelijker te doen uit een luxe positie. Intel en Nvidia bezitten die luxe positie momenteel, zowel op marktaandeel als marge. Wat dat betreft blijf ik dus op een brede launch hopen en geen laffe proefballonnetjes.

[ Voor 7% gewijzigd door sdk1985 op 12-03-2016 02:47 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
sdk1985 schreef op zaterdag 12 maart 2016 @ 02:26:

Tja wat is dom, ik vindt vooral je voorbeeld behoorlijk dom niet zo handig gekozen. Immers los van dat de 750 een soort proefballon was, zitten de 750 en de 980 niet in dezelfde serie (7xx en 9xx) en beschikken ze ook niet over dezelfde architectuur (first en second generation).
Daarom gaf ik ook de nog de verschillen aan tussen alleen de tweede generatie. Daarnaast is de eerste generatie Maxwell wel degelijk meer dan een proefballon, er zijn immers net weer meer eerste generatie Maxwell chips bij gekomen. nieuws: Nvidia kondigt GeForce 900MX-kaarten voor laptops aan

Eerste generatie wordt dus gebruikt in de low-end tot hoge low-end en tweede generatie is mainstream tot high-end.
Het is ook hemaal niet zo ver gezocht. Immers als bedrijf moet je voor een launch überhaupt altijd stockpilen, zeker in deze globale tijden. Tenminste als je een paper launch wil voorkomen.
Zoals ik al zei het is totaal niet logisch. Je hebt veel meer mensen nodig en het kost veel meer. En marketingtechnisch is het ook totaal niet logisch om maar één keer per anderhalf jaar met een hele generatie te komen. Als je het verspreid over meerdere launches ben je vaker in het nieuws wat weer voor extra naamsbekendheid zorgt, gratis reclame.

Zoals ik al zei er is geen enkele logische reden voor, zijn alleen maar nadelen en jij kan het tegendeel ook niet bewijzen.
Sterker nog het is ook eigenlijk meestal de realiteit. Zie bijvoorbeeld de eerder aangehaalde 6xx serie:
[afbeelding]
Daar zie je 14 van de 22 kaarten binnen 2 maanden lanceren (63%). Binnen de 5 maanden zit je op 17 (72%). Intel blijft natuurlijk de beste van de klas.
Goed voorbeeld, voor mij dan. :p

De GK104 was de eerste GPU van de generatie, welke overigens drie maanden kwam na AMD's HD7970, nVidia had dus wel een beetje haast, toch duurde het veel maanden en de high-end GPU, de GK110 kwam pas 11 maanden daarna. Bijna een jaar dus, zoals je ziet alles gelijk lanceren is niet te doen.
Met één ding had je wel een punt (nou ja, je zat er in de buurt), producten achter houden is inderdaad makkelijker te doen uit een luxe positie. Intel en Nvidia bezitten die luxe positie momenteel, zowel op marktaandeel als marge. Wat dat betreft blijf ik dus op een brede launch hopen en geen laffe proefballonnetjes.
nVidia heeft geen luxe positie, Intel wel.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
sdk1985 schreef op zaterdag 12 maart 2016 @ 02:26:
[...]

De gedachtegang was niet zo heel complex/vergezocht wat mij betreft. AMD komt nu met XConnect op basis van Thunderbolt 3. Echter AMD zelf zit niet in de thunderbolt groep. Het is dus niet heel waarschijnlijk dat we bij AMD thunderbolt support op chipset niveau gaan zien. Ervan uitgaande dat Zen een succes wordt en we dus weer AMD laptops gaan zien dan is het onwaarschijnlijk dat daar een thunderbolt poort op komt. Immers een add-in kaart of iets dergelijks is duur (Asus heeft het weleens gedaan op een desktop bord). AMD zit de komende tijd nog wel vast in het low-budget segment. Niet echt een plek waar je een (Intel) chipoplossing van tientallen dollars moet verwachten.

Dat houdt dan vervolgens in dat kopers van een externe AMD Radeon kaart deze niet kunnen combineren met een laptop met een AMD cpu. Dan verlies je dus potentiele klanten bij de cpu afdeling.
Het is dan ook geen oplossing die in elke huis-tuin-en-keuken laptop komt. En in een gaming laptop maakt het een stuk minder uit of ze er een extra controller in stoppen. AMD weet ook dat ze in dat segment voorlopig nog geen deuk zullen maken qua CPU's, want zelfs als Zen helemaal bij komt duurt dat nog eeuwen voordat ze daar marktaandeel terug kunnen snoepen.

In de tussentijd hebben ze wel al een externe GPU oplossing die bouwt op bestaande technologie, waar men de benamingen al kent en die inmiddels meer gevonden worden in high-end laptops. En ja, dan moeten ze wellicht een relatief dure licentie af nemen als ze zelf in dat segment willen gaan knokken; maar of dat duurder is dan zelf een nieuwe standaard te ontwikkelen, marketen, terwijl je moet opboksen tegen de bestaande? ;)

Ik zie de logica echt wel :P
Daar zie je 14 van de 22 kaarten binnen 2 maanden lanceren (63%). Binnen de 5 maanden zit je op 17 (72%). Intel blijft natuurlijk de beste van de klas.
En van die 14 zijn er ook 10 Fermi rebrands; met de overgebleven 4 heb je het over slechts 2 chips, daar een 670, 680 en 690 allemaal GK104 zijn, al dan niet met uitgeschakelde clusters. En dan blijft over GK107 voor de GT 640.

Dat is geen brede launch gebaseerd op "kleine chips eerst". GK104 was een geforceerde launch die niet gepland was. Nogmaals, je moet met dit soort dingen niet naar de kaart nummers kijken. De chips is waar het om gaat.

Zelfde chart bij AMD:

Afbeeldingslocatie: http://f.cl.ly/items/0J2c3V1C2X022l1V150Q/a.png

Puntjes om op te letten:
- 7350, 7450, 7470, 7510, 7670 zijn slechts OEM-only rebrands
- De chips uit lagere bin komen meteen op dag 0 uit (7950), in tegenstelling tot Nvidia (670)
- 2 maanden na release zijn alle 3 de chips uit.

Dat is een brede launch. Op tijd van 2 maanden had AMD 7970 tot en met 7750 voorzien van GCN; dat zijn 3 aparte prijs klasses. Sterker nog, alle drie de chips waren op de markt zelfs nog voordat Nvidia's ene chip in een enkele GPU uit kwam. Nog eens twee maanden later voor de lagere bin en nog eens 3 maanden daarna om eens aan de "sweet spot" klasse te beginnen.

Nvidia heeft al jaren geen volledige lineup weten te produceren. Kepler was een gedwongen release omdat ze hun primaire chip niet klaar hadden en besloten die te laten vallen. Fermi was veel te laat en dusdanig problematisch dat ze hun lineup amper op de markt hadden tegen de tijd dat ze de refresh klaar hadden. En dat is waarom ze met de 500-serie de rest wat meer hadden verspreid en sommige chips relatief laat kwamen.

En dan heb je nog Maxwell, wat een pleister op de TSMC wonde is en die ze heel bewust gespreid uit hebben gebracht.

[ Voor 17% gewijzigd door Werelds op 14-03-2016 15:41 ]


Acties:
  • 0 Henk 'm!

  • BSOD baby
  • Registratie: Februari 2015
  • Laatst online: 12-09 09:34
Vandaag een nividia drivers update gedaan. Heb een gtx 980 en nooit eerder problemen gehad. Las op het nieuws dat mensen last hadden van BSOD's maar ik heb eerder last van beeld dat random op zwart of blauw gaat. Enige wat ik vandaag heb gedaan na de update is netflixen en teamspeak. Lijkt mij een probleem met de drivers right? Heb driver 364.51.. Ik zet het hier neer omdat het ook op het nieuws kwam meende ik. Kondigde nvidia niet een nieuw update aan hiervoor?

[ Voor 14% gewijzigd door BSOD baby op 12-03-2016 14:37 ]


Acties:
  • 0 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 09-09 21:39
BSOD baby schreef op zaterdag 12 maart 2016 @ 14:36:
Vandaag een nividia drivers update gedaan. Heb een gtx 980 en nooit eerder problemen gehad. Las op het nieuws dat mensen last hadden van BSOD's maar ik heb eerder last van beeld dat random op zwart of blauw gaat. Enige wat ik vandaag heb gedaan na de update is netflixen en teamspeak. Lijkt mij een probleem met de drivers right? Heb driver 364.51.. Ik zet het hier neer omdat het ook op het nieuws kwam meende ik. Kondigde nvidia niet een nieuw update aan hiervoor?
Hmm bedankt voor de waarschuwing, ik heb ook een 980 en nu wacht ik nog maar ff met de update

Acties:
  • 0 Henk 'm!

  • BSOD baby
  • Registratie: Februari 2015
  • Laatst online: 12-09 09:34
MetalSonic schreef op zaterdag 12 maart 2016 @ 20:35:
[...]

Hmm bedankt voor de waarschuwing, ik heb ook een 980 en nu wacht ik nog maar ff met de update
Graag gedaan, beeld ging ook op groen en nog meer rare dingen. Heb gerolebacked naar een eerdere driver en sinds dien geen problemen gehad :*) .

Acties:
  • 0 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 09-09 21:39
BSOD baby schreef op zondag 13 maart 2016 @ 00:15:
[...]

Graag gedaan, beeld ging ook op groen en nog meer rare dingen. Heb gerolebacked naar een eerdere driver en sinds dien geen problemen gehad :*) .
Mijn scherm ging net op oranje, Windows was compleet vastgelopen en reageerde nergens meer op. Hoe ga ik terug naar een eerdere driver?


Edit:
Net zelf gedaan:
Ik heb nu via apparatenbeheer mijn videokaart geselecteerd en gekozen voor "terugzetten naar vorige driver" Dat lukte. Scherm flikkerde ook even etc. Echter, als ik Nvidia opstart dan lijkt het alsof hij nog op de meest recente driver zit.

[ Voor 25% gewijzigd door MetalSonic op 14-03-2016 21:11 ]


Acties:
  • +1 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 12-09 21:26
NVIDIA makes source code for select GameWorks libraries available to developers via GitHub. Source code for NVIDIA Volumetric Lighting and NVIDIA's FaceWorks demo is available today. Source code for NVIDIA HairWorks, NVIDIA HBAO+ and NVIDIA WaveWorks will be available soon.
http://nvidianews.nvidia....-nvidia-gameworks-sdk-3-1

Niet alles maar in ieder geval iets.

Acties:
  • 0 Henk 'm!

  • beebie121
  • Registratie: December 2011
  • Laatst online: 12-09 12:23
Dat is goed nieuws LongBow!
Ik hoop dat alle GPU's nu voordeel kunnen halen van XXXWorks en dat games er ook echt baat bij hebben als in mooiere beelden etc.

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
GeForce X80(Ti) ....
http://videocardz.com/586...cs-hit-the-web-or-do-they

[ Voor 3% gewijzigd door calsonic op 17-03-2016 16:12 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Komkommertijd zie ik, dan maar gewoon allemaal onzin schrijven, levert ook pageviews op.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Kijk eens aan, wie had het verwacht ? Ik dacht dat ze steeds meer renderingtechnieken gingen black-boxen, maar af en toe verrassen ze ook met eens een zet waar alle consumenten mee geboeid zijn.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022

Naamgeving en specificaties toekomstige Pascal-GPU's duiken mogelijk op

Afbeeldingslocatie: http://content.hwigroup.net/images/articles/NVIDIA-GeForce-X80-X80Ti-X80-TITAN.png

Is waarschijnlijk flauwekul, HBM 2.0 en GDDR5 geheugencontroller, toe maar. Dat wordt een grote chip.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 21:11

XanderDrake

Build the future!

madmaxnl schreef op vrijdag 18 maart 2016 @ 21:55:

Naamgeving en specificaties toekomstige Pascal-GPU's duiken mogelijk op

[afbeelding]

Is waarschijnlijk flauwekul, HBM 2.0 en GDDR5 geheugencontroller, toe maar. Dat wordt een grote chip.
Is er iemand die geruchten uiteindelijk staaft aan daadwerkelijke specs? Vaak zijn we de geruchten vergeten zodra de realiteit zich aandient.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Die zelfde onzin is gister ook al geplaatst:

calsonic in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 56"
XanderDrake schreef op vrijdag 18 maart 2016 @ 23:36:
[...]

Is er iemand die geruchten uiteindelijk staaft aan daadwerkelijke specs? Vaak zijn we de geruchten vergeten zodra de realiteit zich aandient.
Bij Videocardz en Hardware.info sowieso niet, hoe groter de onzin hoe meer pageviews is volgens mij het motto.

[ Voor 43% gewijzigd door -The_Mask- op 18-03-2016 23:45 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
XanderDrake schreef op vrijdag 18 maart 2016 @ 23:36:
Is er iemand die geruchten uiteindelijk staaft aan daadwerkelijke specs? Vaak zijn we de geruchten vergeten zodra de realiteit zich aandient.
Ze (WCCF, VC) posten 100 "geruchten" over elke chip die uit komt en uiteindelijk klopt er 1% wel. Maar dat is pas in de week voor de release van die chip. Eerder dan dat weten ze helemaal niets. En als dan daadwerkelijke feiten bevestigd worden passen ze hun eerdere posts aan om het er op te laten lijken dat ze meteen al zeiden dat het fake was.

Kleine greep uit m'n geheugen rondom Kepler (omdat die periode echt hilarisch was):
- GK110 als GTX 680 met 1024 shaders
- GTX 285 PCB als Titan PCB
- GK104 als GTX 670 Ti op 700 MHz
- Geen shader hotclock meer! Oh wacht, toch wel. Nee, niet. Wel. Niet. Euhh...¯\_(ツ)_/¯

En ga zo maar door.

90% van alle geruchten zijn klinkklare onzin. Mensen die simpelweg cijfertjes gaan verdubbelen en dergelijke. En als ze nou eerst eens kritisch naar sommige van die afbeeldingen keken, maar nee, gewoon posten voor clickbait. We hebben al zo veel afbeeldingen gezien met technisch onmogelijke (of onwaarschijnlijke) dingen, zoals HBM2 + GDDR5 gebruikt met dezelfde chip. Of bijvoorbeeld 4 GB VRAM op een 256-bit bus begin 2012* 8)7


* 4 Gb/512 MB chips kwamen pas eind dat jaar; met 2 Gb chips op een 256-bit bus zou je dus 4096 / 256 = 16 chips nodig hebben, terwijl je maar 256 / 32 = 8 stuks kwijt kunt zonder te clamshellen ;)

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
het is sws ook redelijker om te verwachten dat gf104 vergelijkbaar zal zijn met de titan x qua specs maar dan op een kleinere process node

Acties:
  • 0 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 09-09 21:39
BSOD baby schreef op zondag 13 maart 2016 @ 00:15:
[...]

Graag gedaan, beeld ging ook op groen en nog meer rare dingen. Heb gerolebacked naar een eerdere driver en sinds dien geen problemen gehad :*) .
zit je nog steeds op de eerdere driver? is 't al veilig om te updaten naar de nieuwste Nvidia driver?

Acties:
  • 0 Henk 'm!

  • BSOD baby
  • Registratie: Februari 2015
  • Laatst online: 12-09 09:34
MetalSonic schreef op zondag 20 maart 2016 @ 01:37:
[...]

zit je nog steeds op de eerdere driver? is 't al veilig om te updaten naar de nieuwste Nvidia driver?
Zit er nog steeds op ja geen idee of er al een nieuwe is die het probleem oplost.

Acties:
  • 0 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 09-09 21:39
BSOD baby schreef op zondag 20 maart 2016 @ 10:56:
[...]


Zit er nog steeds op ja geen idee of er al een nieuwe is die het probleem oplost.
Dan blijf ik ook nog wel even op de oudere :) sinds die oudere nooit meer gehad dat mijn scherm ineens 'bevroor?" oid

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:02
Het wordt voor mij echt tijd voor een nieuwe videokaart. Normaal doe ik 1.5-2 jaar met een semi-midrage videokaart. Daarna koop ik weer een nieuwe. Mijn huidige GTX 660 Ti stamt echter nog uit 2012, die zit er dus dik overheen. Ik hoopte op een GTX 960 Ti die helaas nooit is gekomen. Vorig jaar heb veel minder gegamed dus ik heb er eigenlijk weinig last van gehad, ook al speel ik tegenwoordig op 2560x1080.

Echter dit jaar ben ik nu al twee keer een game tegengekomen die voor mij echt onspeelbaar is. De eerste was Black Ops III (framedrops naar 20 FPS). Verlagen van details hielp niet en op lager dan medium ziet de game er echt bizar slecht uit. Zojuist kwam ik tot dezelfde conclusie voor ARK: Survival of the Fittest. Op sommige plekken heb ik 9 FPS gezien (medium). Het valt mij op dat beide games er bar slecht uit zien op alles onder high terwijl de fps winst marginaal is. Er zijn games uit 2007 die er beter uit zien en beter draaien...

Verder valt op dat in ARK een GTX 960 circa 50% sneller is dan een GTX 760. Ook doen de topkaarten slechts 40 fps op high. Dat zaakje stinkt :P.

Maar goed, wat mij betreft kan Polaris/Pascal niet snel genoeg komen :).

[ Voor 10% gewijzigd door sdk1985 op 22-03-2016 02:34 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 09-09 21:39
sdk1985 schreef op dinsdag 22 maart 2016 @ 02:32:
Het wordt voor mij echt tijd voor een nieuwe videokaart. Normaal doe ik 1.5-2 jaar met een semi-midrage videokaart. Daarna koop ik weer een nieuwe. Mijn huidige GTX 660 Ti stamt echter nog uit 2012, die zit er dus dik overheen. Ik hoopte op een GTX 960 Ti die helaas nooit is gekomen. Vorig jaar heb veel minder gegamed dus ik heb er eigenlijk weinig last van gehad, ook al speel ik tegenwoordig op 2560x1080.

Echter dit jaar ben ik nu al twee keer een game tegengekomen die voor mij echt onspeelbaar is. De eerste was Black Ops III (framedrops naar 20 FPS). Verlagen van details hielp niet en op lager dan medium ziet de game er echt bizar slecht uit. Zojuist kwam ik tot dezelfde conclusie voor ARK: Survival of the Fittest. Op sommige plekken heb ik 9 FPS gezien (medium). Het valt mij op dat beide games er bar slecht uit zien op alles onder high terwijl de fps winst marginaal is. Er zijn games uit 2007 die er beter uit zien en beter draaien...

Verder valt op dat in ARK een GTX 960 circa 50% sneller is dan een GTX 760. Ook doen de topkaarten slechts 40 fps op high. Dat zaakje stinkt :P.

Maar goed, wat mij betreft kan Polaris/Pascal niet snel genoeg komen :).
of je haalt een MSI GTX 970, veel bang 4 buck :) en dan is die nieuwe generatie minder belangrijk!

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
sdk1985 schreef op dinsdag 22 maart 2016 @ 02:32:
Echter dit jaar ben ik nu al twee keer een game tegengekomen die voor mij echt onspeelbaar is. De eerste was Black Ops III (framedrops naar 20 FPS). Verlagen van details hielp niet en op lager dan medium ziet de game er echt bizar slecht uit. Zojuist kwam ik tot dezelfde conclusie voor ARK: Survival of the Fittest. Op sommige plekken heb ik 9 FPS gezien (medium). Het valt mij op dat beide games er bar slecht uit zien op alles onder high terwijl de fps winst marginaal is. Er zijn games uit 2007 die er beter uit zien en beter draaien...

Verder valt op dat in ARK een GTX 960 circa 50% sneller is dan een GTX 760. Ook doen de topkaarten slechts 40 fps op high. Dat zaakje stinkt :P.
Het is geen geheim dat nVidia oudere kaarten redelijk verwaarloost qua optimalisaties daarnaast is het ook geen geheim dat nVidia grote problemen heeft met videokaarten van 2GB en minder in een aantal games. In een aantal games is de prestaties gewoon altijd slecht rond de 10 fps, de instellingen maken niet uit, zelfs op de laagste instellingen loopt het niet.

Eén van de voorbeelden:
Afbeeldingslocatie: http://tpucdn.com/reviews/ASUS/R9_380X_Strix/images/gtav_1600_900.png
http://www.techpowerup.co...SUS/R9_380X_Strix/13.html

Zijn vast wel meer te vinden naast GTA V.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • +1 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:58
-The_Mask- schreef op dinsdag 22 maart 2016 @ 15:13:
zelfs op de laagste instellingen loopt het niet.
Dat is dikke onzin, het loopt prima als je de textures niet al te hoog hebt staan.

Maar als je test moet je natuurlijk de settings gelijk houden, en dat is meestal high of ultra.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 21:49
haarbal schreef op dinsdag 22 maart 2016 @ 16:02:
[...]

Dat is dikke onzin, het loopt prima als je de textures niet al te hoog hebt staan.

Maar als je test moet je natuurlijk de settings gelijk houden, en dat is meestal high of ultra.
Zelfs op 1600 x 900...

Daarbij, valt het toch op dat de twee 2GB kaarten van AMD het wel goed trekken.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:02
MetalSonic schreef op dinsdag 22 maart 2016 @ 12:44:
[...]

of je haalt een MSI GTX 970, veel bang 4 buck :) en dan is die nieuwe generatie minder belangrijk!
Nah, los van de prijs (350) is het ding ondertussen 17 maanden oud. Bovendien doet een 970 ook slechts 26 fps in ARK Survival evolved op high. Dus voor die game moet ik dan alsnog upgraden zodra de nieuwe generatie er is.

Een GTX 770 voor 240 euro in Oktober 2014 had een leuke upgrade voor mij geweest :).

[ Voor 9% gewijzigd door sdk1985 op 22-03-2016 16:26 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 09-09 21:39
sdk1985 schreef op dinsdag 22 maart 2016 @ 16:24:
[...]

Nah, los van de prijs (350) is het ding ondertussen 17 maanden oud. Bovendien doet een 970 ook slechts 26 fps in ARK Survival evolved op high. Dus voor die game moet ik dan alsnog upgraden zodra de nieuwe generatie er is.

Een GTX 770 voor 240 euro in Oktober 2014 had een leuke upgrade voor mij geweest :).
True daar heb je een goed punt, maarja hoe goed geoptimaliseerd is Ark? Nauwelijks i guess dus of dat goede benchmark is? Een vriend van mij heeft een GTX 980 Ti en dan nog eens watergekoeld met snellere bios etc etc maar hij haalde met moeite 30-40 fps op ultra.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 21:11

XanderDrake

Build the future!

Zeara schreef op dinsdag 22 maart 2016 @ 16:10:
Daarbij, valt het toch op dat de twee 2GB kaarten van AMD het wel goed trekken.
Dit.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

MetalSonic schreef op dinsdag 22 maart 2016 @ 17:54:
[...]

True daar heb je een goed punt, maarja hoe goed geoptimaliseerd is Ark? Nauwelijks i guess dus of dat goede benchmark is? Een vriend van mij heeft een GTX 980 Ti en dan nog eens watergekoeld met snellere bios etc etc maar hij haalde met moeite 30-40 fps op ultra.
Dat heeft weinig met optimalisatie te maken maar met de gewoonte van velen dat de hoogste settings altijd speelbaar zijn op de snelste Nvidia kaart van dat moment. Sommige engines en games hebben settings bedoeld voor multi-GPU oplossingen of bedoeld om door nieuwere GPU's pas aangesproken kunnen worden. In de meeste games kan je zonder waarneembaar verschil in kwaliteit een tandje terug, terwijl je framerate drastisch hoger ligt.

Acties:
  • 0 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 09-09 21:39
Phuncz schreef op dinsdag 22 maart 2016 @ 20:16:
[...]

Dat heeft weinig met optimalisatie te maken maar met de gewoonte van velen dat de hoogste settings altijd speelbaar zijn op de snelste Nvidia kaart van dat moment. Sommige engines en games hebben settings bedoeld voor multi-GPU oplossingen of bedoeld om door nieuwere GPU's pas aangesproken kunnen worden. In de meeste games kan je zonder waarneembaar verschil in kwaliteit een tandje terug, terwijl je framerate drastisch hoger ligt.
Ik was erbij toen hij de game op zijn kaart teste. Naast dat hij dus de snelste video game kaart van dit moment heeft beschikt hij ook over één van de nieuwste cpu's. Dan vind ik 't echt schandalig dat er zo'n "lage fps " uit komt. Helemaal omdat de graphix eruit zien alsof ze tussen Farcry 2 en 3 in zitten. ;(

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:02
Phuncz schreef op dinsdag 22 maart 2016 @ 20:16:
[...]

Dat heeft weinig met optimalisatie te maken maar met de gewoonte van velen dat de hoogste settings altijd speelbaar zijn op de snelste Nvidia kaart van dat moment. Sommige engines en games hebben settings bedoeld voor multi-GPU oplossingen of bedoeld om door nieuwere GPU's pas aangesproken kunnen worden. In de meeste games kan je zonder waarneembaar verschil in kwaliteit een tandje terug, terwijl je framerate drastisch hoger ligt.
In algemene zin ben ik het met je stelling eens; het is niet erg als het bij launch niet direct op 60 fps op ultra draait.

In geval van ARK lijkt het me niet dat dit op gaat. Immers zelfs op epic (onspeelbaar) ziet de game er niet echt bijzonder uit. Meer een gevalletje slecht engine gebruik.

Dit is medium:
Afbeeldingslocatie: http://www.pcgameshardware.de/screenshots/original/2016/01/Ark_Survival_Evolved_Vergleich_02_Medium-pcgh.png

Dit is high (26 fps op een GTX 970):
Afbeeldingslocatie: http://www.pcgameshardware.de/screenshots/original/2016/01/Ark_Survival_Evolved_Vergleich_01_High-pcgh.png
Totaal niet indrukwekkend. De laatste Star Wars Battlefront ziet er echt onwijs veel beter uit met hogere framerates om maar iets te noemen.

Met Black Ops III was eigenlijk ook iets raars. Ik vermoed dat het te maken heeft met de hoeveelheid VRAM (1500+MB) in combinatie met de a-sync memory configuratie van mijn 660 Ti. Opvallend genoeg zien zowel Black Ops I en II er beter uit op high terwijl de framerates speelbaar blijven.

Sommige games zijn gewoon raar aan het doen momenteel :P . Natuurlijk kun je daar gewoon power tegen aangooien. Op optimalisaties hoeven we niet te wachten (denk aan Crysis). Daarom kijk ik ook uit naar de volgende generatie :).

[ Voor 14% gewijzigd door sdk1985 op 22-03-2016 21:32 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +1 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
De eerste Crysis uit 2007 ziet er nog veel beter uit en is vele malen lichter. :p

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • +1 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:02
Mja en de eerste Far Cry (2004) had nog mooiere blaadjes eigenlijk :P

Afbeeldingslocatie: http://static.gamespot.com/uploads/original/115/1156321/2436438-farcry0004.jpg
(Zie varens.)

[ Voor 73% gewijzigd door sdk1985 op 22-03-2016 23:57 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • MaXeRs
  • Registratie: November 2008
  • Laatst online: 12-09 15:14
sdk1985 schreef op dinsdag 22 maart 2016 @ 23:57:
Mja en de eerste Far Cry (2004) had nog mooiere blaadjes eigenlijk :P

[afbeelding]
(Zie varens.)
Aahh in de tijd dat pc games nog pc only titels waren en geen enkele pc gebruiker het in zijn hoofd haalde om te denken dat het wel zo glad als boter zou moeten lopen op zijn systeem ,maar er wel al naar uit keek om zijn pc te upgraden om het spel daarna nog eens uit te spelen op de hoogste settings. Tandje lager was meer de norm zeg maar. :)
Met de huidige mindfucked generatie die denkt dat een pc optimalisatie van een console game net zo moet lopen op de hoogste settings als de mindere console variant.
Dat is de consequentie van de zakkenvullende uitgevers en geef ze eens ongelijk.

Een teken van de tijd denk ik.
ontwikkelaar mijn respect heb je. :o
Geld moet rollen.

[ Voor 7% gewijzigd door MaXeRs op 23-03-2016 08:02 ]


Acties:
  • 0 Henk 'm!

  • Donderstraaltje
  • Registratie: Januari 2010
  • Niet online
Is/zijn er nieuws/geruchten bekend bij jullie over low end kaarten mbt Pascal? de x10-x40 range?
Eigenlijk alles wat ik lees gaat over het geweld van de high-end kaarten maar eigenlijk interesseert mij dat totaal niet.
Enige wat ik vind en ook niet lijkt te kloppen is nieuws in deze stijl; http://wccftech.com/nvidi...016-maxwell-kepler-fermi/

Waarom is low end interessant? Wel voor HTPC's zijn de nvidia upscale filters nog altijd heer en meester en de nieuwe gen kaarten krijgen support voor 4k@60fps en hardware h265 decoding. Er zijn nu al in geen jaren nieuwe kaarten uitgekomen, de 730 was een rebrand van de 630 geloof ik , een 830 is er nooit geweest en een 930 tot op heden ook niet. Verder geeft het bijvoorbeeld mijn htpc een grafische boost waardoor basic gaming in beeld komt, een intel HD4000 zoals in mijn huidige htpc is daar niet echt geweldig voor zullen we maar zeggen. Maar ook mensen die niet intensief gamen en een stille en/of een goedkope grafische kaart willen is deze range van x10-x40 interessant.

Dus wat Pascal voor verbeteringen brengt is op zich wel te vinden, maar er is alleen vaag nieuws te vinden over dit soort kaarten die naar mijn mening eigenlijk net zo interessant zijn (voor specifieke builds dan). Als ik meer info heb kan ik performance schatten aan de hand van shader unitsenzo en mijn upgrade plannen. Voor mij specifiek een passieve gtx950 zonder stroomaansluiting of een (gt1040?) kaart met ongeveer gelijke performance zou alle games die ik mogelijk zou willen gamen binnen bereik brengen.

Acties:
  • 0 Henk 'm!

  • SadisticPanda
  • Registratie: Februari 2009
  • Niet online

SadisticPanda

Heet patatje :o

Daar zit ik dus ook op te wachten. Ergens leuke "niet-krachtig" kaartje in de 9xx reeks en dan liefst nog low-profile zonder PEG connector.

Iets als opvolger van een 750ti. Heel zuinig, heel klein en je kan er nog spelletje op spelen

Marstek 5.12kw v151, CT003 v117, Sagecom Xs212 1P,


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:02
Ik heb deze even gemist vorige week:
Nvidia Pascal GTX 1080, 1070 & 1060 Benchmarks Leaked; 3DMark 11 Performance Entries Spotted

Met onder andere een 3 GB kaart. Lijkt me niet dat een x7 serie wordt uitgerust met 3GB aangezien de huidige generatie het al doet met 4 GB. Dus wie weet komt er meteen een x6 uit.

Mbt de HTPC discussie. Ik heb tegenwoordig een (4K) AndroidTV met hardwarematige x264/x265 decoding die native Kodi draait. Ondersteund zowel Xbox 360 controllers als Playstation 4 controllers. De HTPC is dus de deur uit.

Als je nu gamed met een 950 dan zou ik Steam In-Home streaming eens proberen (of Nvidia shield). Ben er eerlijk gezegd nog nooit aan toegekomen maar streamen naar een AndroidTV zou hiermee moeten gaan: Google Play: Moonlight Game Streaming – Android-Apps auf Google Play

Heb je geen (geld voor een) AndroidTV dan is de Nvidia Shield Box ook best leuk. Indrukwekkende specs, quadcore, 3 GB ram, 16/500GB storage, 802.11ac en USB 3.

[ Voor 53% gewijzigd door sdk1985 op 25-03-2016 14:20 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Donderstraaltje
  • Registratie: Januari 2010
  • Niet online
sdk1985 schreef op vrijdag 25 maart 2016 @ 14:11:
Ik heb deze even gemist vorige week:

Mbt de HTPC discussie. Ik heb tegenwoordig een (4K) AndroidTV met hardwarematige x264/x265 decoding die native Kodi draait. Ondersteund zowel Xbox 360 controllers als Playstation 4 controllers. De HTPC is dus de deur uit.

Als je nu gamed met een 950 dan zou ik Steam In-Home streaming eens proberen (of Nvidia shield). Ben er eerlijk gezegd nog nooit aan toegekomen maar streamen naar een AndroidTV zou hiermee moeten gaan: Google Play: Moonlight Game Streaming – Android-Apps auf Google Play

Heb je geen (geld voor een) AndroidTV dan is de Nvidia Shield Box ook best leuk. Indrukwekkende specs, quadcore, 3 GB ram, 16/500GB storage, 802.11ac en USB 3.
Die boxen zijn niet altijd een vervanging of oplossing! En er zijn redenen om Windows te blijven gebruiken. Zo heeft mijn htpc bijvoorbeeld een blu-ray drive die ik niet wil inwisselen en een ingebouwde dual tv tuner. Voor dit alles kun je keuzes maken maar mijn afwegingen vallen altijd richting een Windows htpc. Voor mij is een android bak gewoon geen optie.

En er is wel meer gaming dan steam gaming... Van alle games die ik op steam heb zijn er maar een paar die ik op de tv wil spelen die ook allemaal op consoles te verkrijgen zijn. En laat dat nu net zijn wat ik wil gamen! Wii is tegenwoordig prima te doen, maar op dit moment ben ik meer geïnteresseerd in snes gaming enzo (gaat wel op de HD4000). De reden om te emuleren? Ik haat een tv kast vol met consoles en kastjes! Verder zijn er games die niet te krijgen zijn of ontzettend duur zijn.

Nog 2 dingetjes; upscaling gaat veel beter op een htpc met filters die je handmatig kan afstellen als je dat zo nodig wenst en deze kast is gewoon 19", iets dat de meeste android bakken ook niet zijn. Ook kwa uiterlijk past het helemaal in het plaatje.

En het is ook een funfactor; ik moet kunnen sleutelen eraan. Puur het werkend krijgen exact zoals jij wilt dat het werkt is magic en tenzij je niet aan computers sleuteld of aan auto's of dergelijke is dat enorm lastig uit te leggen. Foto's van mijn bak zodat je het beter snapt/ziet;
http://i.imgur.com/ZUmDSqG.jpg
http://i.imgur.com/wMEfeSt.jpg

En ja daar past een gfx kaart nog bij :P

[ Voor 5% gewijzigd door Donderstraaltje op 25-03-2016 14:56 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:02
Donderstraaltje schreef op vrijdag 25 maart 2016 @ 14:53:
[...]


Die boxen zijn niet altijd een vervanging of oplossing! En er zijn redenen om Windows te blijven gebruiken. Zo heeft mijn htpc bijvoorbeeld een blu-ray drive die ik niet wil inwisselen en een ingebouwde dual tv tuner. Voor dit alles kun je keuzes maken maar mijn afwegingen vallen altijd richting een Windows htpc. Voor mij is een android bak gewoon geen optie.
Zelf heb ik eigenlijk geen bluerays maar anders zou ik een bluerayspeler in mijn NAS gooien of een losse blueray speler achter de tv wegwerken :).
En er is wel meer gaming dan steam gaming... Van alle games die ik op steam heb zijn er maar een paar die ik op de tv wil spelen die ook allemaal op consoles te verkrijgen zijn. En laat dat nu net zijn wat ik wil gamen! Wii is tegenwoordig prima te doen, maar op dit moment ben ik meer geïnteresseerd in snes gaming enzo (gaat wel op de HD4000). De reden om te emuleren? Ik haat een tv kast vol met consoles en kastjes! Verder zijn er games die niet te krijgen zijn of ontzettend duur zijn.
Elke game die je hebt kun je als non-steam game toevoegen en vervolgens streamen :).

Verder draait juist die oude troep gaat toch prima op Android :P?
[YouTube: https://www.youtube.com/watch?feature=player_embedded&v=5ax5uegL9Xg]
Nog 2 dingetjes; upscaling gaat veel beter op een htpc met filters die je handmatig kan afstellen als je dat zo nodig wenst en deze kast is gewoon 19", iets dat de meeste android bakken ook niet zijn. Ook kwa uiterlijk past het helemaal in het plaatje.
Ik denk eerlijk gezegd niet dat je met een HTPC beter kan upscalen dan met de X-reality pro processor. Ik zou in ieder geval niet weten wat ik zou verbeteren aan mijn huidige beeld :P.
En het is ook een funfactor; ik moet kunnen sleutelen eraan. Puur het werkend krijgen exact zoals jij wilt dat het werkt is magic en tenzij je niet aan computers sleuteld of aan auto's of dergelijke is dat enorm lastig uit te leggen. Foto's van mijn bak zodat je het beter snapt/ziet;
http://i.imgur.com/ZUmDSqG.jpg
http://i.imgur.com/wMEfeSt.jpg

En ja daar past een gfx kaart nog bij :P
Ik sleutel aan mijn NAS:
Afbeeldingslocatie: http://tweakers.net/ext/f/EvP6bQWidbILU7y9D6JD8SbY/full.jpg
(Jah de SSD ligt op de bodem :D ). Maar dan vooral aan de software kant. Ik heb een duaboot Win7/Debian met de bekende software suite. Dus daar hoef je het niet voor te laten :).

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Donderstraaltje
  • Registratie: Januari 2010
  • Niet online
Ik heb geen Nas, wil ik wellicht ooit wel maar die zou dan naar de meterkast moeten verhuizen. Helaas zit ik in een rot appartement waarbij de indeling niet ideaal is en ik geen kabel kan trekken van de meterkast naar het appartement. Dit staat op mijn todo lijstje.

Verder zou ik juist niet aan een nas willen sleutelen, die moet in een keer goed zijn en waarschijnlijk is een synology wat voor me. Heb die op de zaak en bij vrienden met volle tevredenheid neergezet.

Steam streamen heb ik getest, is het voor mij net niet helaas. Te beperkte instellingen, lag en wifi problemen maken dit echt een no go. Is iets om over 1 of 2 jaar naar te kijken maar niet nu.

<- vind ik ook echt een stuk fijner werken dan steam, zo wil ik het graag hebben maar dan met een andere minimal skin.

Verder vind ik de afstandsbediening ook erg belangrijk, deze kan ik volledig programmeren en er is geen universele die doet wat deze combi doet. Ga ik nu niet dieper op in. Verder heb ik kodi ook erg aangepast, dit kan ik persoonlijk door gebrek aan linux kennis niet op die boxen.

En wat betreft het upscalen worden die boxen steeds beter, maar ik kan je artikelen geven die jou inzicht geven welke je nu niet bezit. Hier zit nog een wereld van verschil en ontwikkeling in.


Zo zie je maar dat wat voor de ene goed werkt voor de ander totaal niet geschikt is. Zo lees ik altijd overal dat low end kaarten totaal zinloos zijn en daar kan ik zeer fel op reageren zoals wel af te leiden is aan het geschrevene :P. Zou makkelijker voor mezelf zijn als ik minder eisen zou stellen.

[ Voor 9% gewijzigd door Donderstraaltje op 25-03-2016 15:35 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:02
Denk dat wij inderdaad een iets andere filosofie hebben. Als ik TV wil kijken dan wil ik dat het feilloos werkt, zonder gezeur met toetsenborden muizen en instellingen. Aan de NAS kant vindt ik het leuk om te sleutelen. In de basis is een NAS niets anders dan een PC die altijd aanstaat met een fileshare. Dat werkt gewoon altijd dus dat is niets om je druk over te maken. Het rommelen volgt uit de automatisering (post processing scripts).

Een kant en klare NAS is niet iets dat ik snel zou aanraden. Immers zoals je ziet gebruik ik 6 schijven en een 6-bay NAS kost je meteen 470 euro. Dan krijg je een apparaat dat veel duurder is, veel minder flexibel en veel trager. Bovendien is een Windows NAS stiekem best wel makkelijk qua software stack. Op een Synology zaken als sabnzbd installeren kost toch net even wat meer moeite (en het draait veel slechter).

Voor mij bied AndroidTV vooral extra comfort. Met de HTPC moest ik nog weleens terugvallen op de muis functionaliteit van mijn IR remote. Binnen AndroidTV is alles met de arrow keys te bedienen. Bovendien is de Netflix Windows app beperkt tot 720p en is de bediening redelijk dramatisch.

Voor streamen heb je inderdaad een goede dataverbinding nodig tussen de server en de client. Onder de 50 Mbit zou ik er niet aan beginnen. Vroeger had ik daar een powerline voor nodig (80 Mbit), tegenwoordig doet Wifi 5 GHz 100+ Mbit (Nighthawk).

edit: Ik weet niet of die MAME addon op Kodi for Android werkt. Als je een link via DM stuurt dan wil ik het best testen :P.

[ Voor 4% gewijzigd door sdk1985 op 25-03-2016 15:42 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Donderstraaltje
  • Registratie: Januari 2010
  • Niet online
sdk1985 schreef op vrijdag 25 maart 2016 @ 15:40:
Denk dat wij inderdaad een iets andere filosofie hebben. Als ik TV wil kijken dan wil ik dat het feilloos werkt, zonder gezeur met toetsenborden muizen en instellingen. Aan de NAS kant vindt ik het leuk om te sleutelen. In de basis is een NAS niets anders dan een PC die altijd aanstaat met een fileshare. Dat werkt gewoon altijd dus dat is niets om je druk over te maken. Het rommelen volgt uit de automatisering (post processing scripts).
Dat doet het hier dus wel, zelfs beter :)

Even een voorbeeldje (wel met ATi):
http://lifehacker.com/how...ur-home-theate-1700412363
Kun je ook minimaal zien hoe tv werkt in Kodi, je kunt het nog fijner afstellen :).

De eigenlijke link die ik zocht met nvidia vs ati vs intel kan ik niet vinden, meen dat die alweer een jaar of 2 oud was van anandtech. Erg mooi spul die filters, dit doen veel tv's en tv boxen niet, ook veel blu-ray spelers hebben niet zulke goede upscale filters. Voor de film en series liefhebbers het zeker waard!

ook een aardig topic; http://www.avsforum.com/f...-mediabrowser-jriver.html

[ Voor 8% gewijzigd door Donderstraaltje op 25-03-2016 16:13 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:02
De relatie met het topic is of we zitten te wachten op de low end Pascal kaarten of niet. Wel op het randje van offtopic :P.

Wat mist in beide gevallen is de vergelijking met de door mij genoemde beeldverwerking in de tv's zelf; de X1 processor. Dat je het beter kunt krijgen met filtering ontken ik niet, ik betwijfel alleen of tv's met goede upscaling het slechter doen.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Donderstraaltje
  • Registratie: Januari 2010
  • Niet online
sdk1985 schreef op vrijdag 25 maart 2016 @ 16:31:
De relatie met het topic is of we zitten te wachten op de low end Pascal kaarten of niet. Wel op het randje van offtopic :P.

Wat mist in beide gevallen is de vergelijking met de door mij genoemde beeldverwerking in de tv's zelf; de X1 processor. Dat je het beter kunt krijgen met filtering ontken ik niet, ik betwijfel alleen of tv's met goede upscaling het slechter doen.
Eerste valt wel mee, er is altijd een markt om ook aan de low end kant gfx kaarten te upgraden. Mijn eerdere punt blijft dat de laatste nieuwe de 630/640 is en die iets improved gelabelde 730/740. De x50 noem ik eerder mid end maar goed voor mij is ook die interessant wellicht. Het is nu jaren geleden en dit kan zeker gezien de cpu's niet meer zo hard gaan heel interessant zijn. Hardware decoding ook; stel je voor je oude noem wat midrange kaart van 4 jaar terug begint lawaaiig te zijn... vervang hem voor een stil goedkoop exemplaar en het decoden van bepaalde dingen gaat ook niet over de cpu zodat je die kunt behouden.

Het tweede is ook relevant en ging ik wel op in... niet elke tv is daar zo goed/even goed in en vaak zijn het de duurste modellen. Mijn tv van 700E geeft incl. die htpc een even goed beeld dan een laten we zeggen 2500e (niet geheel fictief) model. En het setje is in totaal nog goedkoper ook mocht iemand dat willen aanhalen.

Nee offtopic is het zeker niet.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online

[RUMOR] Pascal in trouble with Asynchronous Compute code

According to our sources, next micro architecture Pascal GPU from NVIDIA will be in trouble if it will have to heavly use Asynchronous Compute code in video games.

Broadly speaking, Pascal will be an improved version of Maxwell, especially about FP64 performance, but not about Asynchronous Compute performances. NVIDIA will bet on raw power, instead of Asynchronous Compute abilities. This means That Pascal cards will be highly dependent on driver optimizations and games developers kindness. So, GamesWorks optimizations will play a fundamental role in company strategy. That is it for this reason NVIDIA has made publicly available some GamesWorks codes ?


http://www.bitsandchips.i...-asyncronous-compute-code

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:58
Maakt niet uit als de kaart snel genoeg is.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 07-09 19:15

Racing_Reporter

Contentmaker

haarbal schreef op maandag 28 maart 2016 @ 11:24:
Maakt niet uit als de kaart snel genoeg is.
Zou je denken? Nvidia's kaarten uit het verleden slowed down to a crawl toen sommige functies aangezet werden. DX9 op de FX5xxx-reeks bijvoorbeeld, of ik geloof double precision performance bij de duurdere kaarten. Je kan optimaliseren wat je wil, als je kaart er niet voor gebouwd is, dan wordt het een naar verhaal en ik hoop dat klanten daar niet de dupe van gaan worden.

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:58
Async compute is een manier om de utilization hoog te houden, geen doel op zich.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Snorro
  • Registratie: December 2007
  • Laatst online: 12-09 13:07
Je kan optimaliseren wat je wil, als je kaart er niet voor gebouwd is, dan wordt het een naar verhaal en ik hoop dat klanten daar niet de dupe van gaan worden.
Juist daar ben ik een beetje bang voor als ik dit nieuws lees. Gezien het recente verleden lijkt het me helaas aannemelijker dat dit lijdt tot een vertraagde adoptie van AC dan tot een pijnlijke tegenvaller voor Nvidia.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

haarbal schreef op maandag 28 maart 2016 @ 11:37:
Async compute is een manier om de utilization hoog te houden, geen doel op zich.
Wie heeft het over een doel ? Gratis performance increase lijkt me wel zo leuk om te hebben als gamer.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 16:53

edward2

Schieten op de beesten

Ik vraag me wel af in hoevere ac nog invloed heeft op de perf. bij bv. 4- en 5K reoluties. Tot nu toe lijkt het vooral winst te geven in lagere resoluties waar traditioneel de (feed vanaf) CPU de limiterende factor is, al hebben nu natuurlijk nog weinig tot geen echte dx12-games).

[ Voor 12% gewijzigd door edward2 op 28-03-2016 13:30 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • CMSTRR
  • Registratie: Mei 2013
  • Laatst online: 27-04-2024

CMSTRR

HP Elitebook 820 G3

Ergens heb ik gelezen dat nvidia nog geen dx12 support aan heeft staan in haar software. Zal dit kloppen? Of is het toch zo dat nvidia nu standaard minder zal presteren dan amd in dx12? Met de huidige dx12 games is dit tot nu toe wel zo..

Acties:
  • 0 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 09-09 21:39
CMSTRR schreef op maandag 28 maart 2016 @ 13:41:
Ergens heb ik gelezen dat nvidia nog geen dx12 support aan heeft staan in haar software. Zal dit kloppen? Of is het toch zo dat nvidia nu standaard minder zal presteren dan amd in dx12? Met de huidige dx12 games is dit tot nu toe wel zo..
Ik dacht dat het aan je videokaart lag? Bij mijN GTX 980 staat groot op de doos dat hij klaar is voor DX 12 :?

Acties:
  • 0 Henk 'm!

  • Twam
  • Registratie: Januari 2014
  • Laatst online: 16:59
MetalSonic schreef op maandag 28 maart 2016 @ 14:09:
[...]

Ik dacht dat het aan je videokaart lag? Bij mijN GTX 980 staat groot op de doos dat hij klaar is voor DX 12 :?
Dat de kaart er hardwarematig klaar voor is, wil niet zeggen dat de drivers het al toepassen ;)

Acties:
  • 0 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 09-09 21:39
Twam schreef op maandag 28 maart 2016 @ 14:10:
[...]


Dat de kaart er hardwarematig klaar voor is, wil niet zeggen dat de drivers het al toepassen ;)
Ah ok, ach zal wel komen :) :9

Acties:
  • +1 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Men heeft het er vaak over dat nVidia 'DX12 nog aan moet zetten', zodra het over Async Compute gaat. Alleen is er niets aan te zetten. De videokaart kan hardwarematig Async Compute doen, of kan het niet. Maxwell kan het niet, dus is er niets 'aan te zetten'. Wat nVidia kan doen is proberen er zoveel mogenlijk omheen te coden, zodat de videokaarten niet beginnen te stallen door een workflow die ze niet kunnen verwerken.

Async Compute is dan ook niet zo zeer een ontwikkeling om de GPU zo veel mogenlijk belast te houden, maar om zo flexibel mogenlijk te schakelen, wanneer de software wat anders wil dan waar de kaart op dat moment mee bezig is. Als nVidia het er met Pascal nog niet in heeft zitten, is dat vrij kwalijk (temeer omdat nVidia zo'n 2 jaar geleden met veel kabaal verklaarde dat het al jaren met Microsoft aan DX12 aan het werken was). Geen AC in Pascal zou nVidia het schaamrood op de kaken moeten laten staan. Ik vrees echter dat ze er weer omheen gaan draaien, als het waar is.

Acties:
  • 0 Henk 'm!

  • Nature
  • Registratie: Maart 2012
  • Laatst online: 21-08 15:52
Misschien is Async geen big deal, goed voor onrealistische workflow en bottleneck verwijderen die er niet is in normaal gebruik, fps game-x met deatchmatch 10k tegenstanders tegelijk in beeld oid.
Een benchmark zegt zogenaamd dat de R9 290X even snel is in DX 12 als de GTX 980 TI alleen is in dezelfde benchmark de Fury X ook even snel als de GTX 980 TI :P (klinkt minder spannend).
Nvidia zal het wel het beste weten en is Async niet nodig anders maken ze niet 2 generaties van een nieuwe kaart die zo slecht zou werken door het gebrek aan die functie, ik denk dat Nvidia ook wel in 2013 toen de R9 uitkwam de kaart even doorlichtte en even hebben gekeken hebben bij hun concurrent onder de motorkap.
Gratis performance graag mij hoor je niet klagen ik stap gelijk weer over wanneer AMD lood in goud kan laten veranderen. :) maar: 'If it seems too good be true, it probably is.'

Acties:
  • 0 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 09-09 21:39
Tja toch is het Nvidia die in de afgelopen 5 jaar steeds de eye candy had, hairworks, lightning features, still & toch krachtig. AMD moet wel iets bijzonders willen laten zien wil ik de overstap wagen

Acties:
  • +1 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Nature schreef op maandag 28 maart 2016 @ 14:44:
Misschien is Async geen big deal, goed voor onrealistische workflow...


...
Zeg maar een beetje zoals die giga hoeveelheid triangels op subpixel niveau, om AMD's en Pre-Maxwell videokaarten tegen te werken qua prestaties. Onrealistisch veel triangels in tesselation, alleen omdat het kan.

Hoe dan ook, je schildert een erg zwart beeld af over de functionaliteit van AC. Eentje die haaks staat op de algemene uitingen van ontwikkelaars die met Xbone en PS4 bezig zijn.
MetalSonic schreef op maandag 28 maart 2016 @ 14:57:
Tja toch is het Nvidia die in de afgelopen 5 jaar steeds de eye candy had, hairworks, lightning features, still & toch krachtig. AMD moet wel iets bijzonders willen laten zien wil ik de overstap wagen
AMD heeft al 'veel' langer zoiets als hairworks. TressFX. Het werkt beter, het ziet er beter uit en het is vrij voor iedereen beschikbaar. NVidia kan het alleen niet gebruiken om AMD's (en nVidia's eigen oude kaarten) prestaties in te laten zakken.

[ Voor 8% gewijzigd door dahakon op 28-03-2016 15:12 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

MetalSonic schreef op maandag 28 maart 2016 @ 14:57:
Tja toch is het Nvidia die in de afgelopen 5 jaar steeds de eye candy had, hairworks, lightning features, still & toch krachtig. AMD moet wel iets bijzonders willen laten zien wil ik de overstap wagen
Dacht toch dat TressFX er eerder was. AMD was eerder met Tesselation, heeft Eyefinity. Het is vooral dat Nvidia met elke feature die ze hebben het van de daken schreeuwen alsof ze het wiel hebben uitgevonden :+.

@Nature
Dat het verschil tussen de Fury X en GTX980TI met OC gelijk wordt getrokken is best leuk, het is leuker om te zien dat de oudere 280(x) en 290(x) alle Nvidia kaarten waartegen ze gepositioneerd zijn voorbij gaan.
Wat aan AC is too good to be true? Hyperthreading werkt toch ook prima voor Intel? Ik zie AC als een soort van hyperthreading voor op videokaarten, zijn genoeg bronnen te vinden die goed uitleggen hoe het werkt.

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 12-09 21:26
Ik heb een beetje het idee dat AC in hetzelfde schuitje zit als feature level DX12_1. Het wordt van de daken geschreeuwd als 1 van de 2 het niet heeft. We zullen zien hoe belangrijk het wordt. We staan nog in de kinderschoenen met DX12.

Acties:
  • +4 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Nature schreef op maandag 28 maart 2016 @ 14:44:
Misschien is Async geen big deal, goed voor onrealistische workflow en bottleneck verwijderen die er niet is in normaal gebruik, fps game-x met deatchmatch 10k tegenstanders tegelijk in beeld oid.
Een benchmark zegt zogenaamd dat de R9 290X even snel is in DX 12 als de GTX 980 TI alleen is in dezelfde benchmark de Fury X ook even snel als de GTX 980 TI :P (klinkt minder spannend).
Nvidia zal het wel het beste weten en is Async niet nodig anders maken ze niet 2 generaties van een nieuwe kaart die zo slecht zou werken door het gebrek aan die functie, ik denk dat Nvidia ook wel in 2013 toen de R9 uitkwam de kaart even doorlichtte en even hebben gekeken hebben bij hun concurrent onder de motorkap.
Gratis performance graag mij hoor je niet klagen ik stap gelijk weer over wanneer AMD lood in goud kan laten veranderen. :) maar: 'If it seems too good be true, it probably is.'
MetalSonic schreef op maandag 28 maart 2016 @ 14:57:
Tja toch is het Nvidia die in de afgelopen 5 jaar steeds de eye candy had, hairworks, lightning features, still & toch krachtig. AMD moet wel iets bijzonders willen laten zien wil ik de overstap wagen
Nvidia zal het wel het beste weten? Nvidia de meeste eye candy (het is trouwens lighting, zonde tweede 'n' ;))?

Eens even kijken:

- Display spanning: AMD. Nvidia schreeuwde keihard dat het onzin was. Maand of 4-5 later was er wel ineens een Nvidia Surround op CES, duurde daarna wel nog eens 6 maanden eer het beschikbaar was. En in eerste instantie wederom als een software hack. Pas vanaf Kepler kunnen ze dit in hardware.
- Tessellation: ATI. Jarenlang "niet interessant", tot het punt waar het uit DX10 gesloopt werd omdat Nvidia het niet kan. Fast forward naar DX11 en 2010 en kijk eens aan, Nvidia gooit er massa's tessellators tegenaan. Fast forward nog een paar jaar en Nvidia misbruikt het omdat ze er zo veel brute kracht tegenaan gooien.
- Tiled Resources: AMD. Niet interessant volgens Nvidia, maar het komt wel in D3D11 als een optional feature (11.2) en is een verplicht onderdeel van FL12_0. Pre-Maxwell is er wederom een hack waarbij het geëmuleerd wordt en Maxwell doet wonder boven wonder Tier 3 dat ineens in DX12 zit...hmm...
- Video En-/Decoding: ATI. Ruim voor Nvidia.
- Eerste DX 9, 10, 11 GPU's: ATI en AMD. Met name in DX10 zaten een hoop optionele features die inmiddels verplicht zijn die AMD/ATI toen gewoon al ondersteunde.
- MSAA, TF in hardware: ATI. Sterker nog, het is dankzij AMD dat MSAA en AF "standaard" features zijn geworden. Met name R300 was gewoon dusdanig snel dat je beide ineens veel meer zag. AIAF kwam ook als eerste bij AMD bijvoorbeeld.

Lighting features? Zoals...wat? VXGI? _O-

Ik denk dat jullie bedoelen dat Nvidia meer geld steekt in games/engines exclusief hun versie van al deze te laten gebruiken. Nvidia heeft niets dat AMD niet heeft (eerder andersom), maar in games met het Nvidia label zie je die ondersteuning vreemd genoeg nooit terug. Complot theorie zeker? En als Nvidia's implementatie nou goed in elkaar stak was het niet zo'n probleem. PhysX bijvoorbeeld is een grote grap en inferieur aan Havok, maar omdat Nvidia en Epic een deal hebben zit PhysX standaard in UE3 en als je dat door Havok wil vervangen moet je flink investeren. HairWorks? Draait vele malen slechter dan TressFX (niet alleen omdat ze 64xT doen, hoewel dat wel een factor is), ziet er niet realistischer uit. Wellicht vinden jullie GameWorks "eye candy", maar dat is grote onzin. GW bestaat uit twee dingen: aan de ene kant is het een hoop non-rendering middleware die vooral met bijvoorbeeld Havok concurreert. Dit alles loopt echter op de CPU en in veel gevallen doet het gewoon onder voor Havok (zoals ik al zei) in zowel realisme als prestaties. Aan de andere kant heb je dingen als de particles die wel iets met met de GPU te maken hebben. Of je dat onder eye candy moet scharen is discutabel (het ziet er meestal belachelijk uit omdat het verkeerd toegepast wordt), maar wat niet discutabel is is het feit dat die dingen ook alleen in games zitten omdat Nvidia er voor betaalt. Of dat nu in cash of in manuren is doet er niet toe. Dit verschil is niet lastig waar te nemen; in games met een Nvidia label zijn veel van die "eye candy" features niet/slecht beschikbaar voor AMD, terwijl je in games zonder label of met AMD label diezelfde features ziet zonder Nvidia's onzin. Kijk maar naar GTA V of Frostbite. En met name die laatste is gewoon geinig, omdat die particles veel mooier doet dan de meeste Nvidia games, een AMD label heeft..en beter loopt op Maxwell dan GCN omdat ze meer uit Maxwell kunnen persen dan uit GCN.

De lijst hierboven is maar een kleine greep, er is maar heel weinig waar je Nvidia echt als pioniers kunt benoemen. Ze waren wel de eerste met een T&L unit en G80 implementeerde unified shaders een stuk beter dan R600 (ondanks het feit dat AMD/ATI ze eerder had), maar verder hebben ze meestal gevolgd.

Begrijp me niet verkeerd, Nvidia heeft meer dan eens de beste implementatie neer gezet van features die door anderen zijn uitgevonden, maar ze lopen absoluut niet voorop. En als ik dan toch bezig ben, er zit in DX12 niets waar Nvidia de beste ondersteuning biedt, noch iets dat uit hun stal komt. Als het op discrete GPU's aan komt heeft AMD verreweg de beste ondersteuning, met uitzondering van FL 12_1. En op FL 12_1 is het juist Intel dat voorop loopt, vooral omdat beide features daar (ROV + CR) uit hun labs komen. Kijk je naar de optionele features, zie je dat AMD en Intel het gros ondersteunen en Nvidia weer niet.


En om maar weer eens uit proberen te leggen waarom AC zo belangrijk is: Sp3ci3s8472 zit er dicht bij in de buurt, echter is het op GPU's nog veel belangrijker dan op CPU's. Nature heeft duidelijk niet veel over AC gelezen.

Tijdens het renderen kun je, net als op een CPU, tegen allerlei bottlenecks aanlopen. Dit heeft te maken met de pipeline (het traject van instructie tot output). Intel is met HT gekomen omdat de P4 een hele lange pipeline had, waardoor een trage operatie alle volgende instructies enorm kon vertragen. Met HT werkten ze een beetje om dat probleem heen, omdat een CPU ook, net als een GPU, meerdere "clusters" heeft die werk kunnen verrichten.

Het grote verschil is echter dat een GPU tegenwoordig veel meer van die clusters heeft en tegelijkertijd het meeste werk dat een GPU doet relatief kleine taken zijn, alleen in grote aantallen. Je hebt vast wel eens de maximale fillrates (pixel + texture) van GPU's gezien. Zonder AC is het helemaal niet zo lastig om tegen die limieten aan te lopen. Met name in een RTS waar je veel kleine objecten hebt die wel allemaal wat gerenderd en gefilterd moet hebben kom je daar heel eenvoudig aan. Het gevolg is dat tot nu toe in de meeste RTS games er vaak veel gedupliceerd werd en lighting beperkt werd (als je met een technisch oog naar sommige RTS games kijkt zie je dat er vaak dingen niet "kloppen" ;)), omdat je anders een hoop van de units zou moeten skippen omdat eerdere instructies de rest zouden vertragen. Het gevolg van deze bottlenecks is dus dat de helft van je GPU niet gebruikt wordt. Ik kan het niet vaak genoeg zeggen dat "GPU Usage" in MSI AB of GPU-Z bullshit is, daar klopt geen moer van; 80% van de tijd betekent die "99%" GPU Usage in werkelijkheid met pijn en moeite 50-70%. De overige clusters in je GPU hebben dan niets te doen, met AC kun je die ook aan het werk krijgen.

Ik focus nu uiteraard op RTS omdat AoS het grote discussie punt is. Er wordt nog steeds geclaimed dat het slecht in elkaar zou zitten en allerlei andere onzin, maar dat is niet zo. Het grote verschil is dat in AoS vrijwel alles nu daadwerkelijk apart gerenderd wordt, in plaats van gewoon CTRL+C/CTRL+V. AC geeft niet zomaar prestatie winst. Een engine moet er wel gebruik van maken en dat doen de meeste engines nog niet; die zijn juist gebouwd om die limieten (niet alleen fillrates overigens, ook bandbreedte, cache en dergelijke) te vermijden.

In FPS games kan het echter even goed voordeel opleveren. Het zal daar niet zo zeer gaan om idiote aantallen queues zoals in AoS, maar meer om "bij" werk. Wederom een eenvoudig voorbeeld is een open world game (of in ieder geval games met een behoorlijke view distance). Waar er nu veel gekloot moet worden met LoD op grotere afstanden om dat maar zo snel mogelijk af te handelen (met als gevolgd weinig tot geen detail op afstand, texture popin), is dat met AC veel mooier op te lossen. Je gebruikt dan gewoon een aparte queue om de copies (streamen) uit te voeren. Een tweede queue om je texture filtering te doen. Gaan wij daar betere prestaties door zien? Niet in framerates. Maar de games worden wel een stuk mooier zonder dat het iets kost, wat dus weldegelijk prestatie winst is. Nog een voorbeeldje hebben? Particles. In plaats van die door je main pipeline te gooien (de meeste implementaties behandelen ze "als er nog tijd is"), kun je daar een aparte queue voor gebruiken.

Acties:
  • 0 Henk 'm!

  • Nature
  • Registratie: Maart 2012
  • Laatst online: 21-08 15:52
dahakon schreef op maandag 28 maart 2016 @ 15:10:
[...]


Zeg maar een beetje zoals die giga hoeveelheid triangels op subpixel niveau, om AMD's en Pre-Maxwell videokaarten tegen te werken qua prestaties. Onrealistisch veel triangels in tesselation, alleen omdat het kan.
Ik denk dus ook niet dat AC zo zal worden of kan worden gebruikt, getuige ook Nvidia die er niet echt van onder de indruk blijkt te zijn Aots is niet een realistische situatie denk ik dan met: ''stand crazy'' benchmarks'' oid.
Ik heb wel Nvidia zien zeggen dat bijvoorbeeld bij crysis en ook Watchdogs er specifieke plekken zijn waar door bugs water of wat dan ook onder de stad te zien is of plekken erg tessellated zijn, bij No BS podcast nadat Huddy er was geweest met een woede tantrum lol
Hoe dan ook, je schildert een erg zwart beeld af over de functionaliteit van AC. Eentje die haaks staat op de algemene uitingen van ontwikkelaars die met Xbone en PS4 bezig zijn.
PS4 werkt allang met zoiets close to the metal als dx12 ze zullen er wel meer uit persen dan normaal kan met de slappe cpu dat is top maar dat is een compleet andere situatie dan met de PC.


@Sp3ci3s8472: Wat ik net bedoelde is dat met DX12 benchmarks hier http://wccftech.com/amd-r...3dmark-33-faster-gtx-980/ is de R9 290 even snel als een Titan klinkt geweldig enzo maar hier weer: http://www.extremetech.co...-nvidia-go-head-to-head/2 is de Fury x ook even snel als de GTX 980 TI in DX12 klinkt alleen niet zo spannend dus wordt niet of weinig herhaald.

@werelds: Als Nvidia dan zo slecht is niets goed kan doen waarom is Nvidia dan zo'n gezond bedrijf heeft het zo'n gigantisch aandeel >80% kunnen zij investeren in allerlei ideen, shield auto onderdelen en weet ik niet wat ze in de kelder doen. AMD zal gerust niet verkeerd zijn hoor ik heb het van 2009 tot 2014 gebruikt HD4870/HD7850 Crossfire/R9 290 daarvoor altijd Nvidia, alleen ATI in mijn Game cube :P
Dus ik hoop dat je gelijk hebt AMD helemaal geweldig wordt spellen zullen zien als nooit te voren, beelden en effecten laten zien waar we nooit van hadden durven dromen. Tot die tijd gebruik ik Hairworks PhysX etc producten die ik mwa niet verkeerd vind, TressFX zou ik ook willen gebruiken alleen is er maar 1 spel mee.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:58
Werelds schreef op maandag 28 maart 2016 @ 17:13:
- Eerste DX 9, 10, 11 GPU's: ATI en AMD.
Was de G80 niet de 1e dx10 gpu?

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Nature schreef op maandag 28 maart 2016 @ 17:55:
Ik denk dus ook niet dat AC zo zal worden of kan worden gebruikt, getuige ook Nvidia die er niet echt van onder de indruk blijkt te zijn
Als Nvidia er geen voordeel mee kan halen doordat hun hardware er niet op voorzien is, zullen ze er ook niet over doen alsof ze onder de indruk zijn. Marketing afdeling he.
@werelds: Als Nvidia dan zo slecht is niets goed kan doen waarom is Nvidia dan zo'n gezond bedrijf heeft het zo'n gigantisch aandeel >80% kunnen zij investeren in allerlei ideen, shield auto onderdelen en weet ik niet wat ze in de kelder doen.
Je haalt verschillende zaken door elkaar omdat je het te simpel bekijkt. Nvidia is niet slecht in verkoop of producten, maar hun marktstrategie is van een veel agressievere en scherpere aanpak dan AMD. Dat ze investeren in allerlei markten is om goede reden: om niet enkel afhankelijk te zijn van het verkopen van videokaarten. Shield stelt veel te weinig voor, hun auto-industry debut (wat zou moeten voorzien zijn van Pascal maar tijdens presentatie een Maxwell was) is wederom een poging om ergens anders voet aan wal te krijgen.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Nature schreef op maandag 28 maart 2016 @ 17:55:
Ik denk dus ook niet dat AC zo zal worden of kan worden gebruikt, getuige ook Nvidia die er niet echt van onder de indruk blijkt te zijn Aots is niet een realistische situatie denk ik dan met: ''stand crazy'' benchmarks'' oid.
AotS maakt dus juist relatief weinig gebruik van AC. Niets over the top en gewoon in een relatief realistische situatie.
Ik heb wel Nvidia zien zeggen dat bijvoorbeeld bij crysis en ook Watchdogs er specifieke plekken zijn waar door bugs water of wat dan ook onder de stad te zien is of plekken erg tessellated zijn, bij No BS podcast nadat Huddy er was geweest met een woede tantrum lol
Als het om zaken als hairworks gaat, dan hebben we het niet over bugs, maar over doelbewust overtesselation. Hoe dan ook, dat is een andere discussie.
PS4 werkt allang met zoiets close to the metal als dx12 ze zullen er wel meer uit persen dan normaal kan met de slappe cpu dat is top maar dat is een compleet andere situatie dan met de PC.
De CPU doet er in deze niet toe. Het close to the metal verhaal ook niet. Heel specifiek wordt benoemd hoe AC tot wel zo'n 30% winst kan worden behaald op de consoles versus het niet toepassen van AC. Het is dus ook geen andere situatie dan de PC. Het is simpel AC wel/niet gebruiken.
haarbal schreef op maandag 28 maart 2016 @ 17:57:
[...]

Was de G80 niet de 1e dx10 gpu?
De eerste GPU die gebruik maakte van unified shaders was Xenos, de GPU in de Xbox360.

Acties:
  • 0 Henk 'm!

Verwijderd

Denken jullie dat AC vooral in de low end kaarten het verschil gaat maken ? met highend kaarten kan nvidia altijd nog wat extra shaders er bij inzetten om het verschil te compenseren lijkt mij.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:58
dahakon schreef op maandag 28 maart 2016 @ 18:14:
De CPU doet er in deze niet toe. Het close to the metal verhaal ook niet. Heel specifiek wordt benoemd hoe AC tot wel zo'n 30% winst kan worden behaald op de consoles versus het niet toepassen van AC. Het is dus ook geen andere situatie dan de PC. Het is simpel AC wel/niet gebruiken.
Op de console werkt AC denk wel relatief beter door de trage cpu. Als de cpu er dan even niet in slaagt de gpu te voeden kan er iets uit een low priority queue uitgevoerd worden.

Mechwarrior Online: Flapdrol


Acties:
  • +1 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:02
Is het niet wat te vroeg om nu al zeker te weten dat Async compute niet goed gaat werken op Pascal? Het komt op mij over als een erg hypothetische discussie.

Maar goed, ik doe even mee met doemdenken. Stel dat Nvidia helemaal niets kan met Async Compute en AMD is er geweldig in. Wat gebeurd er dan? Het probleem wat AMD eigenlijk zijn hele levensduur al heeft is dat ze een design win niet weten te vertalen naar financieel succes. Ati Radeon is tegenwoordig onderdeel van AMD en tot nu toe lijkt hierdoor Radeon aan dezelfde "ziekte" te leiden. Radeon is innovatief, hier op GoT zijn we lyrisch, maar vervolgens wordt er weinig impact behaald en sterft het potentiele voordeel een stille dood.

Het zit er dik in dat dit met async compute niet anders zou gaan. Nvidia heeft momenteel natuurlijk een belachelijk marktaandeel van circa 80%. Als Async compute inderdaad bagger presteert op Nvidia hardware dan is het voor een dev niet heel interessant om daar (veel) tijd aan te besteden. Dan kun je immers, al dan niet terecht, de fanbase van Nvidia op je dak krijgen.

Mochten devs er toch massaal op inspringen dan is het nog de vraag of de effecten daar binnen de polaris/pascal generatie zichtbaar zijn. Het duurt immers vaak minimaal 2 jaar voor games uitkomen. Dat is dan een refresh, of mogelijk zelfs een architectuur, verder. In het ergste geval, voor AMD, heeft Nvidia wel goede async compute ondersteuning tegen de tijd dat het daadwerkelijk omarmt wordt. Dan geeft AMD de voorzet (=risico dragen) terwijl Nvidia de vruchten plukt.

Maar goed voorlopig nog geen Pascal kaarten en geen DX12 titels (muv Gears of War) dus we gaan het wel zien.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
haarbal schreef op maandag 28 maart 2016 @ 17:57:
Was de G80 niet de 1e dx10 gpu?
Yep, my bad, jaartallen verwisseld in m'n hoofd.
Nature schreef op maandag 28 maart 2016 @ 17:55:
Ik denk dus ook niet dat AC zo zal worden of kan worden gebruikt, getuige ook Nvidia die er niet echt van onder de indruk blijkt te zijn Aots is niet een realistische situatie denk ik dan met: ''stand crazy'' benchmarks'' oid.
Wat is er volgens jou niet realistisch aan AotS? Nogmaals, het spel/de benchmark doet niets idioots. Het doet alleen iets dat voorheen niet mogelijk was door de D3D11 overhead.

Dat Nvidia niet onder de indruk is of zegt dat het niets is, wilt niets zeggen. Lees mijn post nog maar eens. Dat flikken ze elke keer. Toegeven dat iets dat zij niet hebben goed is hebben ze nog nooit gedaan, tenzij ze plannen hadden om het over te nemen (vaak ook letterlijk in de vorm van een bedrijfsovername ;)).
Ik heb wel Nvidia zien zeggen dat bijvoorbeeld bij crysis en ook Watchdogs er specifieke plekken zijn waar door bugs water of wat dan ook onder de stad te zien is of plekken erg tessellated zijn, bij No BS podcast nadat Huddy er was geweest met een woede tantrum lol
We hebben het niet over tessellated water onder de map in Crysis 2 (wat overigens sowieso niet aan Nvidia te wijten is, dat was Crytek zelf schuld).

We hebben het over 64xT op het haar in Hairworks als het meest recente voorbeeld. Tessellation werkt net als MSAA met zogenaamde samples. Hoe meer samples, hoe intensiever en hoe accurater het effect. Echter heb je ook net als bij MSAA met dalende meeropbrengsten (diminishing returns) te maken: hoe meer samples, hoe minder effect elk sample heeft. Met MSAA zie je de verschillen tussen, 2, 4 en 8 samples. Met 16 wordt het al heel lastig en 32 zie je gewoon niet, tenzij je op 4K rendert en dan diep gaat inzoomen. Hetzelfde geldt voor tessellation, hoewel bij tessellation de grenzen iets breder zijn. Tussen de 4 en 12 (effectief 16) samples is waar je het ziet. Daarboven zie je het niet, tenzij het een gigantisch groot object is; dus voor een berg zou 32 samples nog wel zichtbaar zijn (of dat het waard is, is een andere zaak). Maar op die minuscule objecten zoals het haar is 16 nog te veel.

HairWorks/TressFX zijn niet zo zwaar voor de huidige GPU's, dus laat Nvidia het met 64xT draaien omdat hun GPU's dat toch wel kunnen bruteforcen. Het gevolg? 20% performance verlies op zelfs een 980 Ti, en zo'n 40% op bijvoorbeeld Hawaii (Fiji heeft iets meer tessellators en heeft er iets minder last van). Nadat wat gebruikers de tessellation factor limiteerden in Catalyst is er een patch gekomen die effectief hetzelfde doet (HW low vs high): tessellation factor verlagen. Resultaat? Op low verlies je op Hawaii dan slechts zo'n 10% performance...even veel als op een 980 Ti op low (dus ook op Nvidia win je gewoon 10% FPS).

Nvidia heeft zelf aangegeven dat dat niet CDPR's keuze was, 64xT is wat er vanuit Nvidia geleverd werd. Pas op aanvraag van CDPR kwamen die opties voor hen beschikbaar.
PS4 werkt allang met zoiets close to the metal als dx12 ze zullen er wel meer uit persen dan normaal kan met de slappe cpu dat is top maar dat is een compleet andere situatie dan met de PC.
Je snapt het nog steeds niet. Het heeft niets met de CPU te maken. Het heeft met de GPU te maken. D3D12 in z'n geheel draait makkelijker op low-end CPU's ja, maar dat is niet vanwege Async Compute, dat is gewoon omdat de API nu niet meer zo vertragend werkt. AC is juist voor snellere CPU's interessant.
@werelds: Als Nvidia dan zo slecht is niets goed kan doen waarom is Nvidia dan zo'n gezond bedrijf heeft het zo'n gigantisch aandeel >80% kunnen zij investeren in allerlei ideen, shield auto onderdelen en weet ik niet wat ze in de kelder doen.
Omdat Nvidia veel meer in marketing heeft geinvesteerd. Dat is waar AMD hun markt aandeel door kwijt is geraakt. Ten tijde van G80 en GT200 heeft Nvidia gigantisch veel aan marketing gedaan, in een periode dat AMD/ATI dat niet kon. Het is niet door technisch inferieure hardware (ik hoop dat je beseft dat Nvidia bijvoorbeeld ook twee jaar op rij verlies heeft gedraaid door hun G80 underfill probleem en de problemen met Fermi) en zelfs niet door de driver problemen in het verleden. En daardoor heeft AMD ook geen kapitaal op kunnen bouwen, samen met het feit dat hun CPU tak verantwoordelijk is voor al het verlies van het bedrijf.

Shield auto onderdelen? 8)7
Je bedoelt Drive PX? Daar hebben ze bedrijven voor opgekocht en dat draait niet om hardware. Dat is software. De hardware zijn geen speciale chips.
Tot die tijd gebruik ik Hairworks PhysX etc producten die ik mwa niet verkeerd vind, TressFX zou ik ook willen gebruiken alleen is er maar 1 spel mee.
TressFX zit TR2013 en Rise of the Tomb Raider; en komt daarnaast in Deus Ex. HairWorks zit in CoD: Ghosts, The Witcher 3 en FC4.

3 games elk.
Verwijderd schreef op maandag 28 maart 2016 @ 18:38:
Denken jullie dat AC vooral in de low end kaarten het verschil gaat maken ? met highend kaarten kan nvidia altijd nog wat extra shaders er bij inzetten om het verschil te compenseren lijkt mij.
haarbal schreef op maandag 28 maart 2016 @ 18:47:
Op de console werkt AC denk wel relatief beter door de trage cpu. Als de cpu er dan even niet in slaagt de gpu te voeden kan er iets uit een low priority queue uitgevoerd worden.
Zie ook hierboven, maar nee, Async Compute werkt niet beter op trage CPU's, eerder andersom (afhankelijk van wat je met je queues doet).

Zie dit muurtje van me voor een iets langere uitleg. In het kort: extra shaders er bij zetten heeft geen nut als je je clusters niet beter aan kunt sturen. Nvidia zou al superkleine clusters moeten maken, iets dat niet bij hun bruteforce aanpak van de afgelopen 6-7 jaar past en dus niet waarschijnlijk is voor Pascal.
sdk1985 schreef op maandag 28 maart 2016 @ 19:44:
Het zit er dik in dat dit met async compute niet anders zou gaan. Nvidia heeft momenteel natuurlijk een belachelijk marktaandeel van circa 80%. Als Async compute inderdaad bagger presteert op Nvidia hardware dan is het voor een dev niet heel interessant om daar (veel) tijd aan te besteden. Dan kun je immers, al dan niet terecht, de fanbase van Nvidia op je dak krijgen.
Het is echter niet zo dat je dan niets meer kunt op Nvidia. Je optimaliseert gewoon op een andere manier. Op AMD zul je dan meer detail op het scherm kunnen toveren, terwijl je op Nvidia een ouderwetsere LoD aanpak hanteert (om maar even bij m'n voorbeeld hierboven te blijven).

En sommige bedrijven zullen daar echt geen moeite mee hebben. Oxide uiteraard, maar DICE zal het ook een worst wezen. Als zij meer uit AMD kunnen persen door AC te gebruiken, zullen ze dat doen. Dat doen ze nu op Nvidia ook.

Het verschil met andere technologie in het verleden is dat AMD/ATI ze toen vaak nog eerst in D3D moest krijgen. Dat hoeft nu niet meer, het zit er in. Toen tessellation eenmaal in D3D zat werd het ook meteen gebruikt in tal van games.

Je hebt wel gelijk, ik trek nog geen conclusies met betrekking tot Pascal. Ik besteed sowieso weinig aandacht aan deze geruchten. Vooral ook omdat dezelfde geruchten claimen dat er meer FP64 performance komt ;)

[ Voor 3% gewijzigd door Werelds op 28-03-2016 20:39 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 12:02
Voor grote studio's zal het inderdaad technisch/geld/tijd niet zo problematisch zijn. Daar ben ik het wel mee eens.

Het gevaar dat ik zie is echter het scenario waarbij Nvidia kaarten ineens *insert groot getal* minder FPS halen, of het scenario waarbij Radeon kaarten hogere detail settings unlocken. Als 80% van je userbase Nvidia draait dan is er de potentie dat een deel hier zich kwaad over gaat maken. In dat geval kun je een flink aantal rode duimpjes op Steam krijgen. Denk aan flames als "pro amd game, dont buy" en hoe slecht de engine wel niet is. Als dat wordt geupvote dan is dat een PR nachtmerrie. Ik zou daar zelf in ieder geval heel voorzichtig mee zijn. In ieder geval zolang de markt niet dichter bij een 50/50 situatie zit.

[ Voor 8% gewijzigd door sdk1985 op 28-03-2016 21:04 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Verwijderd

sdk1985 schreef op maandag 28 maart 2016 @ 21:02:
Voor grote studio's zal het inderdaad technisch/geld/tijd niet zo problematisch zijn. Daar ben ik het wel mee eens.

Het gevaar dat ik zie is echter het scenario waarbij Nvidia kaarten ineens *insert groot getal* minder FPS halen, of het scenario waarbij Radeon kaarten hogere detail settings unlocken. Als 80% van je userbase Nvidia draait dan is er de potentie dat een deel hier zich kwaad over gaat maken. In dat geval kun je een flink aantal rode duimpjes op Steam krijgen. Denk aan flames als "pro amd game, dont buy" en hoe slecht de engine wel niet is. Als dat wordt geupvote dan is dat een PR nachtmerrie. Ik zou daar zelf in ieder geval heel voorzichtig mee zijn. In ieder geval zolang de markt niet dichter bij een 50/50 situatie zit.
Volgens mij zijn er altijd genoeg mensen die upgraden vanwege een game, dus als een game beter werkt op AMD dan upgraden mensen gewoon naar een AMD kaart. Tuurlijk er zullen altijd fanboys zijn maar die 80% bestaat echt niet uit allemaal fanboys die altijd alleen maar Nvidia kopen dus ze zullen gewoon switchen naar AMD omdat bijna iedereen altijd op de eerste rij wil zitten.
Pagina: 1 ... 14 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.