CJ's Radeon Info & Nieuwsdiscussie - Deel 127 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 6 Laatste
Acties:
  • 24.677 views

Onderwerpen


Acties:
  • 0 Henk 'm!

Anoniem: 590917

Sp3ci3s8472 schreef op donderdag 22 mei 2014 @ 10:08:
[...]


Volgens mij was het toch iets anders?

True Audio effecten kunnen inderdaad via je cpu worden gedaan. Alleen is er vaak geen cpu "budget" voor, dit zal misschien in de toekomst veranderen als cpus nog krachtiger worden of ze het op andere cores gooien :p.

EAX was volgens mij te benaderen via OpenAL, al weet ik niet of dat via de cpu ging of op de audio processor op de geluidskaart. EAX is trouwens van Creative, dus die zijn de fout in gegaan. Nu kan ik trouwens niet echt zeggen dat ik het jammer vind dat er geen EAX meer in games zit omdat dit haast altijd hand in hand ging met de walgelijke drivers van Creative. Ik heb zelf nog steeds een ongebruikte x-fi kaart liggen, de drivers waren echt een bak ellende :X ... en ze hielden zich niet aan de pci standaard met het sharen van IRQ.
Correctie, Creative ;) . Ik heb het nog een paar keer terug gezien in nieuwe games maar het word niet veel toegepast meer die EAX effecten. Het is zo'n beetje dood nu en komt nog heel af en toe voor, dus dat zie ik als dood.

Hopelijk blijven de True audio effecten ook voor de CPU behouden zoals in Thief, het is mogelijk want veel cpu's hebben power genoeg over gezien de gemiddelde consument toch wel een i5 heeft die vaak maar half benut word.

Acties:
  • 0 Henk 'm!

Anoniem: 59888

Het zoveelste hoofdstuk in de smerige praktijken van Nvidia. Dat ze een game voor hun eigen producten optimaliseren is prima, maar doelbewust de performance op AMD kaarten onderuit halen is dat wat mij betreft niet. Op deze manier straft Nvidia iedereen die geen videokaart van hen gekocht heeft, dat gaat te ver. Sterker nog, het ondermijnt de concurrentie en verpest de markt, en dat is slecht voor alle PC gamers. Dat deze techniek standaard ingebouwd is in de UE4 engine is dan ook heel slecht nieuws. :(

In aanvullend nieuws, Anandtech heeft de in bovenstaand artikel genoemde nieuwe drivers aan een snelle test onderworpen:

AMD Catalyst 14.6 Beta Drivers Released, Adds New Eyefinity Functionality & More

Bigger are AMD’s Eyefinity updates, which marks one of the biggest updates for the technology since it was first introduced almost 5 years ago. While Eyefinity has always been fairly lenient about what monitors it will work across – easily working across mismatched monitors (unlike NVIDIA Surround) – it has always required that the monitors all be set to the same resolution. In a mixed resolution setup this limited Eyefinity’s functionality somewhat, particularly when it comes to image clarity since a mixed resolution setup would require that one or more monitors run at their non-native resolution.

Starting in Catalyst 14.6 AMD has enabled mixed resolution support, allowing for a single Eyefinity display group to be created while each monitor runs at a different resolution. This feature is made possible through the addition of two new Eyefinity display modes, Fit and Expand, which join the traditional Fill mode. In both Fit an Expand mode AMD is compensating for the mismatched resolutions by creating a virtual desktop that is of a different resolution than the monitors, and then either padding it out or cropping it as is necessary.
14.6 Beta is op dit moment helaas nog niet te downloaden, maar aangezien het dè driver voor Watch Dogs is, zal dat ongetwijfeld niet lang duren.

Acties:
  • 0 Henk 'm!

  • hidde212
  • Registratie: Mei 2011
  • Laatst online: 13:18

hidde212

Free your mind...

Anoniem: 59888 schreef op dinsdag 27 mei 2014 @ 17:23:
Het zoveelste hoofdstuk in de smerige praktijken van Nvidia. Dat ze een game voor hun eigen producten optimaliseren is prima, maar doelbewust de performance op AMD kaarten onderuit halen is dat wat mij betreft niet. Op deze manier straft Nvidia iedereen die geen videokaart van hen gekocht heeft, dat gaat te ver. Sterker nog, het ondermijnt de concurrentie en verpest de markt, en dat is slecht voor alle PC gamers. Dat deze techniek standaard ingebouwd is in de UE4 engine is dan ook heel slecht nieuws. :(

In aanvullend nieuws, Anandtech heeft de in bovenstaand artikel genoemde nieuwe drivers aan een snelle test onderworpen:

AMD Catalyst 14.6 Beta Drivers Released, Adds New Eyefinity Functionality & More

[...]

14.6 Beta is op dit moment helaas nog niet te downloaden, maar aangezien het dè driver voor Watch Dogs is, zal dat ongetwijfeld niet lang duren.
http://www.guru3d.com/fil...t_14_6_beta_download.html

Ik heb m al draaien hoor :)

...and your ass will follow


Acties:
  • 0 Henk 'm!

  • timmie271
  • Registratie: November 2013
  • Laatst online: 19:41
Ik ben hem nu ook aan het downloaden :)

Hij crasht tijdens het installeren....

[ Voor 35% gewijzigd door timmie271 op 27-05-2014 18:49 ]

Gamertag: timmie271


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10-06 01:19

Sp3ci3s8472

@ 12 graden...

Anoniem: 59888 schreef op dinsdag 27 mei 2014 @ 17:23:
Het zoveelste hoofdstuk in de smerige praktijken van Nvidia. Dat ze een game voor hun eigen producten optimaliseren is prima, maar doelbewust de performance op AMD kaarten onderuit halen is dat wat mij betreft niet. Op deze manier straft Nvidia iedereen die geen videokaart van hen gekocht heeft, dat gaat te ver. Sterker nog, het ondermijnt de concurrentie en verpest de markt, en dat is slecht voor alle PC en Console gamers. Dat deze techniek standaard ingebouwd is in de UE4 engine is dan ook heel slecht nieuws. :(

In aanvullend nieuws, Anandtech heeft de in bovenstaand artikel genoemde nieuwe drivers aan een snelle test onderworpen:

AMD Catalyst 14.6 Beta Drivers Released, Adds New Eyefinity Functionality & More

[...]

14.6 Beta is op dit moment helaas nog niet te downloaden, maar aangezien het dè driver voor Watch Dogs is, zal dat ongetwijfeld niet lang duren.
Fixed :P.

Zie ook deze mooie quote:
“Epic developed Unreal Engine 4 on NVIDIA hardware, and it looks and runs best on GeForce,” says Tim Sweeney, founder, CEO and technical director of Epic Games.
Bron:
http://blogs.nvidia.com/blog/2014/03/19/epic-games/

Door dit soort dingen hoop ik dat de nieuwe generatie games UE4 dumped en ze voor een inhouse engine gaan of voor de CryEngine.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Wel, Epic is al aardig wat klanten kwijt geraakt de laatste tijd en EA die vooral met Frostbite doorgaat, wordt het lastiger en lastiger voor Epic om zijn eigen gangetje te gaan met UE4.

Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
Sp3ci3s8472 schreef op dinsdag 27 mei 2014 @ 21:38:

Door dit soort dingen hoop ik dat de nieuwe generatie games UE4 dumped en ze voor een inhouse engine gaan of voor de CryEngine.
Meen ergens gelezen te hebben dat CryEgine nu ook ondersteuning voor GameWorks heeft. Verder is het ontwikkelen van een eigen engine nou niet bepaald goedkoop, en dus alleen weggelegd voor de grotere studio's.

Acties:
  • 0 Henk 'm!

  • hidde212
  • Registratie: Mei 2011
  • Laatst online: 13:18

hidde212

Free your mind...

ColinZ schreef op dinsdag 27 mei 2014 @ 22:14:
[...]


Meen ergens gelezen te hebben dat CryEgine nu ook ondersteuning voor GameWorks heeft. Verder is het ontwikkelen van een eigen engine nou niet bepaald goedkoop, en dus alleen weggelegd voor de grotere studio's.
Teams picked: CryEngine gets Mantle, UE4 adds GameWorks support
Dat heb je net niet helemaal goed gelezen:
the CryEngine-based Warface is getting GameWorked.
The folks at CryTek revealed in a session yesterday that CryEngine will be adding support for the Mantle API, giving CryEngine-based games low-level access to Radeon GPUs based on the GCN architecture.
Slechts een enkele CryEngine game werkt met nVidia samen, daarentegen wordt de Mantle API gewoon in de CryEngine opgenomen.

...and your ass will follow


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

De UnReal Engine is altijd al een nVidia engine geweest dus zo spannend of verrassend is dat nou ook weer niet... :)

Ik kan me zelfs herinneren dat er ATI filmpjes werden gemaakt om het nVidia Intro filmpje te vervangen voor UT2K3 en UT2K4 :D

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • WillemAtHome
  • Registratie: September 2000
  • Laatst online: 30-07-2024

WillemAtHome

Waar geen wil is, is geen weg.

Sp3ci3s8472 schreef op dinsdag 27 mei 2014 @ 21:38:
[...]


Fixed :P.

Zie ook deze mooie quote:

[...]

Bron:
http://blogs.nvidia.com/blog/2014/03/19/epic-games/

Door dit soort dingen hoop ik dat de nieuwe generatie games UE4 dumped en ze voor een inhouse engine gaan of voor de CryEngine.
Volgens mij worden veel games voor de Oculus op UE4 ontwikkeld, vooral omdat cryengine het renderen niet op orde had. Dus mocht de Oculus een groot succes worden dan zullen we weer een opleving in het gebruik van UE4 zien denk ik.

Het probleem van intelligentie is dat je problemen voorziet die er nooit zullen zijn.


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
nero355 schreef op woensdag 28 mei 2014 @ 00:42:
De UnReal Engine is altijd al een nVidia engine geweest dus zo spannend of verrassend is dat nou ook weer niet... :)

Ik kan me zelfs herinneren dat er ATI filmpjes werden gemaakt om het nVidia Intro filmpje te vervangen voor UT2K3 en UT2K4 :D
Klopt, ik had destijds die irritantie nV intro filmpje laten vervangen door een ATi intro filmpje bij UT2K4.

Dat verklaart achteraf ook waarom T. Sweeney van EPIC, een paar maanden geleden nog AMD's Mantle aan het downplayen was. :-( Gellukig is de Unreal Engine lang niet meer zo dominant als 15 jaar geleden.

Tjsa, en Ubisoft....dit bedrijf is wel een vaker gevoelig geweest voor de geldbuidel van nVidia:
zie de beruchte Assassins Creed DX 10.1 patch, die de AA performance van AMD/ATi fors remde. :|

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
nero355 schreef op woensdag 28 mei 2014 @ 00:42:
De UnReal Engine is altijd al een nVidia engine geweest dus zo spannend of verrassend is dat nou ook weer niet... :)

Ik kan me zelfs herinneren dat er ATI filmpjes werden gemaakt om het nVidia Intro filmpje te vervangen voor UT2K3 en UT2K4 :D
Toch vind ik dit een beetje vreemd aangezien de Unreal engine (vind ik dan) altijd 1 van de best lopende engines is geweest op AMD hardware.
Bij meeste Unreal games kan ik in de settings en .ini files bijna alles ongestraft op full zetten, wat ik bij andere engines veel minder kan. (hoef ik bij Cry engine niet te proberen)
(behalve die van Valve (Source) dan maar die loopt op alle hardware als een trein, en die staat standaard dan ook alles aan (hoef ik eigenlijk niet te tweaken))

Enige echt storende aan de Unreal engine is de type kleurstelling, het ziet er altijd wat vlakjes (maanlicht-achtig) uit, waar Source-Engine ongeveer de enige is die er ongeveer 100% natuurlijk uitziet.)

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10-06 01:19

Sp3ci3s8472

@ 12 graden...

enchion schreef op woensdag 28 mei 2014 @ 14:21:
[...]


Toch vind ik dit een beetje vreemd aangezien de Unreal engine (vind ik dan) altijd 1 van de best lopende engines is geweest op AMD hardware.
Bij meeste Unreal games kan ik in de settings en .ini files bijna alles ongestraft op full zetten, wat ik bij andere engines veel minder kan. (hoef ik bij Cry engine niet te proberen)
(behalve die van Valve (Source) dan maar die loopt op alle hardware als een trein, en die staat standaard dan ook alles aan (hoef ik eigenlijk niet te tweaken))

Enige echt storende aan de Unreal engine is de type kleurstelling, het ziet er altijd wat vlakjes (maanlicht-achtig) uit, waar Source-Engine ongeveer de enige is die er ongeveer 100% natuurlijk uitziet.)
Het is een lichte engine, zo heb ik het tenminste altijd gezien. Het wordt voor veel spellen gebruikt waarvan er 13 in een dozijn zitten, je weet ook altijd direct dat het de UE3 engine is als je het spel speelt. Het komt door de manier waarop ze lightning doen, door gebruik te maken van deferred shading is het mogelijk om veel meer lichten in een scene te hebben zonder dat de performance helemaal inkakt.
Nadeel is vooral met de UE3 engine (vind ik) is dat je meteen herkent dat een spel die engine gebruikt want het ziet er haast altijd een soort van bruin/gritty uit. Ik kan het niet echt omschrijven :P.

offtopic:
In het Nvidia topic lijkt het echt wel of je tegen een (ongeinformeerde) muur zit te praten, objectiviteit is daar altijd ver te zoeken....

[ Voor 4% gewijzigd door Sp3ci3s8472 op 28-05-2014 16:14 ]


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Sp3ci3s8472 schreef op woensdag 28 mei 2014 @ 14:43:
Nadeel is vooral met de UE3 engine (vind ik) is dat je meteen herkent dat een spel die engine gebruikt want het ziet er haast altijd een soort van bruin/gritty uit. Ik kan het niet echt omschrijven :P
Dat komt omdat de hele engine meer richting futuristische/mechanische games is ontworpen heb ik het idee.
Hoewel ze bij EPIC ook vrolijke games maken... dat maakt het dan nog raarder :+

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10-06 01:19

Sp3ci3s8472

@ 12 graden...

nero355 schreef op woensdag 28 mei 2014 @ 19:28:
[...]

Dat komt omdat de hele engine meer richting futuristische/mechanische games is ontworpen heb ik het idee.
Hoewel ze bij EPIC ook vrolijke games maken... dat maakt het dan nog raarder :+
Je kan Borderlands als vrolijk omschrijven :+.

Maar je hebt gelijk, de characters hebben ook heel vaak hetzelfde soort type body armor aan.

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Zullen we het weer over AMD-nieuws hebben?

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Zoals de nieuwe Eyefinity opties in de 14.6 beta, how 'bout that ? Ik vind het vrij impressive op papier, maar hoe is het in de realiteit ?

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Ik vind die amd drivers vaag............
In valley haal ik maar iets van 50 fps... zou meer moeten zijn las over driver issues

[ Voor 74% gewijzigd door A87 op 29-05-2014 10:18 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 21-05 11:53
Phuncz schreef op donderdag 29 mei 2014 @ 08:44:
Zoals de nieuwe Eyefinity opties in de 14.6 beta, how 'bout that ? Ik vind het vrij impressive op papier, maar hoe is het in de realiteit ?
Bij mij werkt het helaas nog niet, ik heb hetzelfde probleem zoals hier gepost op het AMD-forum:
http://forums.amd.com/gam...adid=174196&enterthread=y

Ik kan dus helemaal nergens de eyefinity modus kiezen. Er wordt automatisch "fill" gekozen en kan nergens vinden waar ik dit kan veranderen.
Iemand anders ervaringen?

Acties:
  • 0 Henk 'm!

  • timmie271
  • Registratie: November 2013
  • Laatst online: 19:41
Ik kan het wel :). Al werkt het niet zo handig als mijn hoofdmonitor 1920x1080 is en me 2e monitor 1024x768 is. Maar als ik het aanzet pak hij wel de volle breedte van beide maar bij de 1080 pakt ie maar 768pixels.

Gamertag: timmie271


Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 21-05 11:53
En hoe verander je dit dan? Misschien een screenshot + uitleg? :)

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10-06 01:19

Sp3ci3s8472

@ 12 graden...

Twee interessante artikelen over OpenGL/Valve/Steambox:
http://richg42.blogspot.c...pengl-driver-quality.html
http://www.extremetech.co...-wretched-state-of-opengl

Nog een (oud maar relevant) artikel over Intel en discrete gpus.
http://semiaccurate.com/2012/12/17/intel-slams-the-door-on-discrete-gpus/

[ Voor 7% gewijzigd door Sp3ci3s8472 op 29-05-2014 14:34 . Reden: link ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • timmie271
  • Registratie: November 2013
  • Laatst online: 19:41
Gurneyhck schreef op donderdag 29 mei 2014 @ 14:06:
En hoe verander je dit dan? Misschien een screenshot + uitleg? :)
Schreenshot gaat nu wat lastig op mijn Laptop met een Nvidia kaart :p.
Maar zodra je eyefinity instelt heb je de keuze om te kiezen hoe je het wilt. Het staat in ieder geval onder het kopje eyefinity. Als ik thuiskom een keer zal ik wel een screenshot maken voor je ;).

Gamertag: timmie271


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 15:33
Als iemand dat stukje tape even wegtrekt weten we misschien welk merk het is :P

maar goed, helaas geen speelbare demo.

http://www.anandtech.com/...0-ips-led-dponly-monitor-
is dat 'em?

[ Voor 14% gewijzigd door haarbal op 04-06-2014 14:33 ]

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • timmie271
  • Registratie: November 2013
  • Laatst online: 19:41
Het is geen lange naam dus geen samsung denk ik :p

Gamertag: timmie271


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 15:14
What is not good news though is that this feature isn't going to be supported on the full range of AMD Radeon graphics cards. Only the Radeon R9 290/290X and R7 260/260X (and the R9 295X2 of course) will actually be able to support the "FreeSync" technology.
Dat is niet helemaal volgens de verwachting......

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 15:33
volgens computerbase is het een ~48 fps demo die gebruik maakt van de techniek om films op de juiste framerate af te spelen.

http://www.computerbase.d...re-guenstiger-als-g-sync/

die techniek zou overigens ook op de gcn 1.0 kaarten beschikbaar komen.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Zeara schreef op woensdag 04 juni 2014 @ 11:14:
[...]


Dat is niet helemaal volgens de verwachting......
Dat was wel volgens de verwachting, dit is namelijk aangekondigd geweest een tijdje terug. Het is ook logisch: er moet een recente DisplayPort voorziening zijn en ik vermoed zelfs dat AMD stiekem al support voor de toekomstige standaard heeft voorzien in de firmware.
Persoonlijk vervang ik ook liever mijn GPU dan mijn monitor, mijn monitors zijn tot nu toe altijd duurder geweest dan mijn GPU's en de monitors heb ik ook niet zo vaak moeten vervangen als de GPU's.

Maar het belangrijkste vind ik nog dit:
Even more interesting, this is a pre-existing display that has had its firmware updated to support Adaptive Sync. That's potentially exciting news! Monitors COULD BE UPGRADED to support this feature, but AMD warns us: "...this does not guarantee that firmware alone can enable the feature, it does reveal that some scalar/LCD combinations are already sufficiently advanced that they can support some degree of DRR (dynamic refresh rate) and the full DPAS (DisplayPort Adaptive Sync) specification through software changes."

[ Voor 33% gewijzigd door Phuncz op 04-06-2014 17:33 ]


Acties:
  • 0 Henk 'm!

Anoniem: 59888

Het upgraden van je monitor zou ik niet te veel waarde aan hechten. De DP1.2a standaard is nog maar kort final, daar zullen nog geen scalars voor zijn. Het is dus niet meer dan logisch dat AMD om freesync nu te kunnen tonen een bestaand model heeft moeten gebruiken. Dat AMD een bestaand model aan kan (laten) passen wil niet bepaald zeggen dat de consument dat straks ook kan. Het upgraden van de firmware van je monitor is niet bepaald iets alledaags. Wat mij betreft is PC Perspective erg voorbarig met die conclusie, ga er maar vanuit dat je gewoon een nieuwe monitor nodig zult hebben.
Zeara schreef op woensdag 04 juni 2014 @ 11:14:
"What is not good news though is that this feature isn't going to be supported on the full range of AMD Radeon graphics cards. Only the Radeon R9 290/290X and R7 260/260X (and the R9 295X2 of course) will actually be able to support the "FreeSync" technology."

Dat is niet helemaal volgens de verwachting......
Dat is één van de nadelen van de aanpak van AMD. Het achteraf inbouwen van een nieuwe DisplayPort is minder triviaal dan het ondersteunen van G-Sync waardoor alleen de nieuwste generatie (minus rebrands) ondersteuning zal bieden voor FreeSync/Adaptive Sync. Nou moet je toch al een nieuwe monitor kopen (en die vervangen de meeste mensen veel minder vaak dan hun graka), maar het is wel jammer. Al kun je je afvragen of mensen met die kaarten in hun PC early adopters zijn die straks meteen naar de winkel zouden willen rennen voor een FreeSync monitor. ;)

Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Even een vraag over de laatste beta driver, 14.6.

Er zou een functie toevoeging moeten zijn nl.
Up next, AMD has added some interesting new video color and color depth management controls for their drivers. We won’t get too deep into these (ed: deep color, I get it!), but on the video color management side AMD now allows for per-color controlling of boost and hue values.
Is dit alleen voor developers of zou dit in de Catalyst control panel zichtbaar moeten zijn, ik heb de driver zowel op Win7 als Win8 geinstalleerd maar in beide gevallen is er niks te kiezen, ook in het registry is er niks wat er op zou moeten lijken.

Kan iemand een screenshotje posten als er iets in CCC te zien is ?

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Anoniem: 59888 schreef op woensdag 04 juni 2014 @ 19:37:
Dat is één van de nadelen van de aanpak van AMD. Het achteraf inbouwen van een nieuwe DisplayPort is minder triviaal dan het ondersteunen van G-Sync waardoor alleen de nieuwste generatie (minus rebrands) ondersteuning zal bieden voor FreeSync/Adaptive Sync. Nou moet je toch al een nieuwe monitor kopen (en die vervangen de meeste mensen veel minder vaak dan hun graka), maar het is wel jammer. Al kun je je afvragen of mensen met die kaarten in hun PC early adopters zijn die straks meteen naar de winkel zouden willen rennen voor een FreeSync monitor. ;)
Mja, ik vind dat hele Mantle verhaal ook best wazig eigenlijk : Het is gratis, het kan met elke kaart samenwerken, maar alles ouder dan de 7xxx serie van AMD zelf zal niet ondersteund worden 8)7

Kan je dus net zo goed een nVidia kaart kopen : Die worden voorlopig ook niet ondersteund :+

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

Anoniem: 590917

AMD pay sync is het dus, je bent ook weer een nieuwe monitor nodig waar fabrikanten nieuwe hardware in moeten stoppen om het werkende te krijgen net als bij Nvidia die hier om veel word bekritiseerd . Maar goed ik vind het dan ook volkomen normaal, je betaald namelijk voor een stukte techniek waar ook weer veel geld in is gestoken, als je verwacht dat je dat gewoon gratis krijg leef je in een droom want alleen de zon komt voor niets op, de maan ook trouwens. :+

Edit

De vraag is ook of het wel open is, want tot nu toe zou het alleen maar werken op bepaalde kaarten
http://techreport.com/new...added-to-displayport-spec dus free sync my ass. Nvidia moet dan ook weer hun videokaarten aanpassen willen ze er gebruik van kunnen maken en uiteindelijk kost het edereen gewoon geld.

AMD doet of ie Sinterklaas is maar ik vraag me af tot hoever ze gaan met gratis openstandaarden die niet echt open lijken te zijn.

[ Voor 34% gewijzigd door Anoniem: 590917 op 05-06-2014 09:52 ]


Acties:
  • 0 Henk 'm!

Anoniem: 100386

enchion schreef op woensdag 04 juni 2014 @ 20:30:
Even een vraag over de laatste beta driver, 14.6.

Er zou een functie toevoeging moeten zijn nl.

[...]


Is dit alleen voor developers of zou dit in de Catalyst control panel zichtbaar moeten zijn, ik heb de driver zowel op Win7 als Win8 geinstalleerd maar in beide gevallen is er niks te kiezen, ook in het registry is er niks wat er op zou moeten lijken.

Kan iemand een screenshotje posten als er iets in CCC te zien is ?
Ik ben (als videofanaat) ook benieuwd naar die screenies.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 15-06 12:44
Anoniem: 590917 schreef op donderdag 05 juni 2014 @ 09:36:
AMD pay sync is het dus, je bent ook weer een nieuwe monitor nodig waar fabrikanten nieuwe hardware in moeten stoppen om het werkende te krijgen net als bij Nvidia die hier om veel word bekritiseerd . Maar goed ik vind het dan ook volkomen normaal, je betaald namelijk voor een stukte techniek waar ook weer veel geld in is gestoken, als je verwacht dat je dat gewoon gratis krijg leef je in een droom want alleen de zon komt voor niets op, de maan ook trouwens. :+

Edit

De vraag is ook of het wel open is, want tot nu toe zou het alleen maar werken op bepaalde kaarten
http://techreport.com/new...added-to-displayport-spec dus free sync my ass. Nvidia moet dan ook weer hun videokaarten aanpassen willen ze er gebruik van kunnen maken en uiteindelijk kost het edereen gewoon geld.

AMD doet of ie Sinterklaas is maar ik vraag me af tot hoever ze gaan met gratis openstandaarden die niet echt open lijken te zijn.
Je vergeet een aantal dingen.
Je zal ooit een nieuwe monitor (moeten) kopen, hier zal zonder meerprijs freesync opzitten.
Hetzelfde geld voor je videokaart. In eerste instantie worden alleen de 290x en 260x ondersteund, maar alle kaarten met GCN 1.1 zullen uiteindelijk ondersteund worden.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 15:33
Anoniem: 590917 schreef op donderdag 05 juni 2014 @ 09:36:
AMD pay sync is het dus, je bent ook weer een nieuwe monitor nodig waar fabrikanten nieuwe hardware in moeten stoppen om het werkende te krijgen net als bij Nvidia die hier om veel word bekritiseerd . Maar goed ik vind het dan ook volkomen normaal, je betaald namelijk voor een stukte techniek waar ook weer veel geld in is gestoken, als je verwacht dat je dat gewoon gratis krijg leef je in een droom want alleen de zon komt voor niets op, de maan ook trouwens. :+

Edit

De vraag is ook of het wel open is, want tot nu toe zou het alleen maar werken op bepaalde kaarten
http://techreport.com/new...added-to-displayport-spec dus free sync my ass. Nvidia moet dan ook weer hun videokaarten aanpassen willen ze er gebruik van kunnen maken en uiteindelijk kost het edereen gewoon geld.

AMD doet of ie Sinterklaas is maar ik vraag me af tot hoever ze gaan met gratis openstandaarden die niet echt open lijken te zijn.
Mwah, amd had zich er denk wat op verkeken toen ze die demo met de 2 laptops gaven, toen wekten ze ook de indruk dat het met een firmwareupdate op schermen zou kunnen, maar bleek dat toch niet goed genoeg te werken en moesten ze het plan aanpassen.

adaptive sync komt er wel uiteindelijk, maar wanneer hangt af van de monitorfabrikanten, hopelijk ook op schermen met een beetje leuke refreshrates.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Snap de discussie eigenlijk niet. Waarom zou iemand in vredesnaam een systeem willen wat alleen werkt met GPU fabrikant X :?

Heb ik monitor met systeem X, blijkt volgende ronde fabrikant Y een veel betere videokaart te hebben.

Lekker handig dan.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Anoniem: 590917

Als je toevallig systeem X hebt kun je ook niet gebruik maken van free sync omdat het op bepaalde CNG kaarten werkt, zelfe probleem alleen lijkt systeem Y open wat het nog niet is.
Ze hebben alle 2 hun voor en nadelen en ik berijp wel dat mensen openstandaarden willen maar om nvidia daar continu over te moeten bekritiseren leest niet lekker weg voor de lezer, het komt over alsof AMD god is en Nvidia de Duivel na 100 keer de zelfde kritiek er op, ik denk dan ook van we weten dat nu wel zo langzamerhand en om het zelfde dan 50.000 keer te herhalen word vervelend.

Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Anoniem: 100386 schreef op donderdag 05 juni 2014 @ 10:01:
[...]
Ik ben (als videofanaat) ook benieuwd naar die screenies.
Ik heb een screeny gevonden met meer info, op http://www.3dnews.ru/tags/murdered%3A%20soul%20suspect

Afbeeldingslocatie: http://www.3dnews.ru/assets/external/illustrations/2014/05/27/820948/06.jpg

Helaas kan ik dit niet zichtbaar krijgen, en ook jammer dat het niet gewoon onder de scherm opties valt maar uitsluitend voor video is.

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Anoniem: 590917 schreef op donderdag 05 juni 2014 @ 11:29:
Als je toevallig systeem X hebt kun je ook niet gebruik maken van free sync omdat het op bepaalde CNG kaarten werkt, zelfe probleem alleen lijkt systeem Y open wat het nog niet is.
Ze hebben alle 2 hun voor en nadelen en ik berijp wel dat mensen openstandaarden willen maar om nvidia daar continu over te moeten bekritiseren leest niet lekker weg voor de lezer, het komt over alsof AMD god is en Nvidia de Duivel na 100 keer de zelfde kritiek er op, ik denk dan ook van we weten dat nu wel zo langzamerhand en om het zelfde dan 50.000 keer te herhalen word vervelend.
Alsjeblieft, stel je niet zo aan.

Y is wel open en zowel nVidia als AMD garanderen maar beperkte compatabiliteit met huidige en oudere GPU series.

De kritiek is verder niet dat er nieuwe hardware of scalers nodig zijn maar dat het alleen maar werkt met 1 merk. Het is een no go en zal met 99% zekerheid niks worden.

Dus als ik moet kiezen tussen Gsync wat ook nog maar amper verkrijgbaar is en daar over een jaar wanneer huidge en oudere kaarten toch al verouderd zijn dan aan vast te zitten. Of over een half jaar/jaar een adaptive sync monitor kopen met toekomstige keuzevrijheid dan is dat een nobrainer voor mij.

Maar leg ons anders nog 1 keer uit waarom gSync zo goed voor ons is.

[ Voor 9% gewijzigd door Help!!!! op 05-06-2014 11:55 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Anoniem: 590917

G-sync kan goed zijn voor nvidia gebruikers en free sync voor AMD gebruikers, dus voordeel voor beide dus uiteindelijk heeft niemand wat te klagen, vandaar dat ook het hele kritisch zijn niet op zijn plaatst is tenzij je gewoon wil flamen want alleen daar is het nuttig voor. Niet netjes trouwens je opmerking van stel je niet zo aan want het gaat niet om mij hier.

[ Voor 21% gewijzigd door Anoniem: 590917 op 05-06-2014 12:20 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 15-06 12:44
Anoniem: 590917 schreef op donderdag 05 juni 2014 @ 12:15:
G-sync kan goed zijn voor nvidia gebruikers en free sync voor AMD gebruikers, dus voordeel voor beide dus uiteindelijk heeft niemand wat te klagen, vandaar dat ook het hele kritisch zijn niet op zijn plaatst is tenzij je gewoon wil flamen want alleen daar is het nuttig voor. Niet netjes trouwens je opmerking van stel je niet zo aan want het gaat niet om mij hier.
Wat is er voordelig aan als er 2 verschillende standaarden zijn?
Er moet en kan eigenlijk maar één standaard zijn, anders is het geen standaard...
Als je een monitor met G-sync bezit, en je wil een AMD kaart halen in de toekomst, kan je dus je monitor min of meer weg gooien omdat het niet meer werkt...
Dat is dus in de toekomst met freesync niet.

Acties:
  • 0 Henk 'm!

Anoniem: 590917

Nou laten we dan maar hopen dat Gsync ook vrij word want dan hoeft men er ook niet meer telkens zo over te zeiken en klagen trollen en flamen omdat je zo graag openstandaarden wil hebben.
-The_Mask- schreef op donderdag 05 juni 2014 @ 12:47:
Er is maar één persoon die continue aan het klagen, trollen en flamen is.....
Ja dat zie ik in 40.000 posts in de verschillende AMD topics, maak daar maar gerust een stuk of 10 personen van 8)7

[ Voor 46% gewijzigd door Anoniem: 590917 op 05-06-2014 13:02 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 15-06 12:44
En dan alsnog $100 extra betalen? Doe mij maar lekker gratis..

Acties:
  • 0 Henk 'm!
Er is maar één persoon die continue aan het klagen, trollen en flamen is.....

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13:14
Anoniem: 59888 schreef op woensdag 04 juni 2014 @ 19:37:
Het upgraden van je monitor zou ik niet te veel waarde aan hechten. De DP1.2a standaard is nog maar kort final, daar zullen nog geen scalars voor zijn.
Er zijn geen nieuwe "scalers" nodig, er is alleen nieuwe software nodig. En waarom blijft iedereen verwijzen naar DP 1.2a als nieuwe standaard?

Adaptive Sync is als nieuwe optionele spec toegevoegd aan de al langer bestaande DP 1.2a specificatie. Dat betekent ook dat volgens VESA's eigen regels er géén nieuwe hardware nodig is. Nieuwe hardware (electrische specificaties dus) vereist een nieuwe versie. Dan had Adaptive Sync dus alleen in 1.3 terecht kunnen komen.
Dat is één van de nadelen van de aanpak van AMD. Het achteraf inbouwen van een nieuwe DisplayPort is minder triviaal dan het ondersteunen van G-Sync waardoor alleen de nieuwste generatie (minus rebrands) ondersteuning zal bieden voor FreeSync/Adaptive Sync.
Heh? Nvidia's ASIC is niet zomaar plug en play met elke monitor. En je verliest alle features van je monitor's eigen bord, wat bij de betere monitoren voor aardig wat kwaliteitsverlies zorgt.
Anoniem: 590917 schreef op donderdag 05 juni 2014 @ 11:29:
Als je toevallig systeem X hebt kun je ook niet gebruik maken van free sync omdat het op bepaalde CNG kaarten werkt, zelfe probleem alleen lijkt systeem Y open wat het nog niet is.
Ze hebben alle 2 hun voor en nadelen en ik berijp wel dat mensen openstandaarden willen maar om nvidia daar continu over te moeten bekritiseren leest niet lekker weg voor de lezer, het komt over alsof AMD god is en Nvidia de Duivel na 100 keer de zelfde kritiek er op, ik denk dan ook van we weten dat nu wel zo langzamerhand en om het zelfde dan 50.000 keer te herhalen word vervelend.
Beide hebben voor- en nadelen?

G-Sync:
- Vereist een $100 investing in Nvidia's hardware (of het nu al in de monitor zit of niet, die kosten draai jij voor op)
- Kan nooit en te nimmer werken op AMD, tenzij AMD Nvidia's spul gaat reverse engineeren.
- Zal niet gebruikt worden in de duurdere monitoren omdat het een vervanging van hun eigen, betere chips betekent.
- Zal dus ook nooit wijd verspreid raken

Adaptive Sync
- Vereist waarschijnlijk een nieuwe monitor omdat vrijwel niemand firmware updates doet voor hun monitors
+ Vereist GEEN nieuwe hardware in de monitor
+ Werkt op elke monitor en/of GPU die het ondersteunt
+ Komt hoogstwaarschijnlijk standaard in 1.3, wat betekent dat alle fabrikanten die zich achter DP hebben geschaard het zullen ondersteunen (Dell, Eizo, LG, Samsung, maar ook ASUS bijvoorbeeld)
+ En dat betekent ook dat Nvidia er niet omheen kan. DisplayPort zelf hebben ze ook aan toe moeten geven.


Ik kan serieus geen voordeel aan G-Sync bedenken, behalve dan de technologie zelf. Het is ook nog steeds niet te koop en ik betwijfel of er een product tussen gaat zitten dat ik z'n prijs waardig acht als er eindelijk iets op de markt komt (hint: dat ding van ASUS is het geld niet waard naar mijn mening).

Je kunt blijven zeggen dat je het niet leuk vindt hoe mensen Nvidia hierover bekritiseren, maar in plaats van dat gejank zou je wel eens een degelijk argument mogen aandragen. Geef nu eens één argument, slechts één, waarom G-Sync beter voor ons als consument zou kunnen zijn. Ééntje maar.

Acties:
  • 0 Henk 'm!

Anoniem: 590917

Ééntje dan, liever goed gejat dan slecht gebracht want daar heb ik moeite mee, kan het wel proberen maar dan begrijpt je het niet ben ik bang voor.
Bij FreeSync wordt er gegokt wanneer de volgende frame klaarstaat en zoals de mensen met een wiskunde achtergrond hier wellicht weten is de beste gok altijd het vorige resultaat. Dat betekent dus dat FreeSync heel goed werkt bij constante framerates (zoals een filmpje van een windmolen), maar niet goed werkt bij een game (waar de framerates vaak veel wisselen) en daar zelfs voor extra problemen kan zorgen.

G-Sync laat het scherm echter VBLANK vasthouden tot er een nieuwe frame door de GPU geleverd wordt. Daar komt dus geen gokken bij te pas en geeft ook een goed resultaat bij games.

[ Voor 4% gewijzigd door Anoniem: 590917 op 05-06-2014 13:27 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 15:33
De enige voordelen van gsync zijn dat het er eerder is en dat het lekker overkill is, met 2560x1440 op 144hz.

Grootste nadeel is dat die module zo duur is, en dat het alleen op gaming gefocust is. Je zal het idd niet in een monitor voor pro fotobewerking terugvinden.
Vendor lock in is ook een nadeel, maar amd en nvidia onlopen elkaar de laatste jaren nooit zo veel qua price/performance, lijkt me onwaarschijnlijk dat dat in de toekomst zal veranderen.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 15-06 10:01
Anoniem: 590917 schreef op donderdag 05 juni 2014 @ 13:25:
Ééntje dan, liever goed gejat dan slecht gebracht want daar heb ik moeite mee, kan het wel proberen maar dan begrijpt je het niet ben ik bang voor.


[...]
Toch mooi voor jou dan dat er Gsync schermen komen?

De meerderheid zit hier gewoon niet op te wachten.

Ik denk dat over 1/2 jaar AMD, Intel en nVidia Adaptive Vsync support hebben en dus "FreeSync". De tijd zal het leren.

Voor wat ik er mee ga doen is Freesync genoeg. 144hz heb ik niet nodig. Ik wil wel graag 4K en als het even kan iets meer dan 60Hz maar opzich is 60hz al meer dan voldoende voor wat ik er mee doe. Ik vind het vooral belangrijk dat het panneel goed is qua kleur reproductie en wil minimaal een 30" hebben. Dan zit je in een hele andere categorie te kijken. TN schermen met 144hz vallen dan sowieso al af.

Voor gamers is Gsync wel interessant. Maar als die ongeveer hetzelfde effect kunnen bereiken voor 100 euro minder denk ik dat veel mensen voor die 100 euro minder gaan. Ook hier weer tijd zal het leren.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13:14
Anoniem: 590917 schreef op donderdag 05 juni 2014 @ 13:25:
Ééntje dan, liever goed gejat dan slecht gebracht want daar heb ik moeite mee, kan het wel proberen maar dan begrijpt je het niet ben ik bang voor.
[...]
Waar die quote vandaan komt weet ik niet, maar ik vind het knap dat die persoon dat weet, aangezien er nog met geen woord is gerept over hoe FreeSync werkt en er nog niemand een 1:1 vergelijking heeft kunnen maken. Waarschijnlijk heeft die persoon zich echter op eDP gebaseerd, waar het inderdaad niet op dezelfde manier gaat als bij G-Sync.

Wat Adaptive Sync betreft, daar zit VBLANK control wel gewoon in, naast alles wat in eDP zit. Dus daar ligt het niet aan, dat is hetzelfde als bij G-Sync; wellicht dat AMD's FreeSync tot nog toe alleen de eDP protocols gebruikt, maar dat weet niemand. Dit moet iedereen ook gaan onthouden; Adaptive Sync en FreeSync zijn verschillende producten. En zoals ik al eerder heb gezegd zou ik er niet raar van opkijken als Nvidia G-Sync gewoon compatible met Adaptive Sync maakt. Dat is technisch gezien mogelijk en het zou G-Sync op hetzelfde niveau halen.
haarbal schreef op donderdag 05 juni 2014 @ 13:27:
De enige voordelen van gsync zijn dat het er eerder is en dat het lekker overkill is, met 2560x1440 op 144hz.

Grootste nadeel is dat die module zo duur is, en dat het alleen op gaming gefocust is. Je zal het idd niet in een monitor voor pro fotobewerking terugvinden.
Vendor lock in is ook een nadeel, maar amd en nvidia onlopen elkaar de laatste jaren nooit zo veel qua price/performance, lijkt me onwaarschijnlijk dat dat in de toekomst zal veranderen.
Heeft niets met foto bewerking te maken. Ik zit al jaren op IPS monitors (en nu op VA met 120 Hz). Ik vind TN panelen afgrijselijk om naar te kijken en laat de meeste monitors nu juist TN zijn ;)

En Adaptive Sync kan ook gewoon 1440p144 doen hoor :)

Acties:
  • 0 Henk 'm!

Anoniem: 590917

Als ik het allemaal zo lees denk ik dat ik toch maar wat minder moet klagen over wat anderen er van vinden, waar die frustratie weg komt weet ik ook niet goed, denk dat ik mezelf aangevallen voel door dat ik zelf tevreden ben over mijn eigen Nvidia kaart.

[ Voor 40% gewijzigd door Anoniem: 590917 op 05-06-2014 14:02 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13:14
Daar is ook niks mis mee, ik ben ook tevreden over hoe m'n Nvidia kaart draait.

Ik ben alleen niet tevreden over hun irritante bedrijfspraktijken, die mij als consument gewoon niet ten goede komen. Niemand hoeft zich aangevallen te voelen als het om AMD en Nvidia gaat, het is toch niet zo alsof je er zelf bij betrokken bent? ;)

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 15:33
Werelds schreef op donderdag 05 juni 2014 @ 13:47:
Heeft niets met foto bewerking te maken. Ik zit al jaren op IPS monitors (en nu op VA met 120 Hz). Ik vind TN panelen afgrijselijk om naar te kijken en laat de meeste monitors nu juist TN zijn ;)

En Adaptive Sync kan ook gewoon 1440p144 doen hoor :)
Ik kan leven met TN :). En adaptive sync is alleen maar een spec, dus ja, natuurlijk kan het, alleen moet de hardware er eerst nog komen.

voorlopig is er alleen maar een demo met een constante ~48 fps en een spec waar de monitorfabrikanten mee aan de slag kunnen, als ze willen.

Een 1440 va eizo met adaptive sync en strobing zou leuk zijn, wss ook 1000,- :P

[ Voor 5% gewijzigd door haarbal op 05-06-2014 15:51 ]

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
ik ben ook niet zo zeer pro amd alsmeer anti nvidia en anti intel maar ja ik ben dan ook een halve punker en kan niet zo goed tegen misbruik maken van de al niet geweldige kapitalistische systeem zoals wij dat hebben.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 15:33
mjah, nvidia heeft soms vervelende streken, zoals gpu physx blokken als je niet op een nvidia kaart rendert, ook al heb je wel een nvidia kaart in je systeem zitten.

maar goed, amd is nu ook leuk bezig met mantle, true audio, en dan van de daken schreeuwen hoe verschrikkelijk gameworks wel niet is.

gelukkig is de xbox one zo traag, kan ik m'n gpu upgrades blijven uitstellen tot adaptive sync er is en gsync in prijs gedaald is.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

haarbal schreef op donderdag 05 juni 2014 @ 17:29:
mjah, nvidia heeft soms vervelende streken, zoals gpu physx blokken als je niet op een nvidia kaart rendert, ook al heb je wel een nvidia kaart in je systeem zitten.
Dat is echt stom inderdaad : Als ze daar nou niet moeilijk over deden dan had ik al lang een nVidia kaart naast mijn ATI kaarten voor Physx :)

Maar goed... dan verdienen ze maar geen geld aan mij en geef ik een heel klein gedeelte daarvan uit aan een GT 630 voor mijn HTPC :+
maar goed, amd is nu ook leuk bezig met mantle, true audio, en dan van de daken schreeuwen hoe verschrikkelijk gameworks wel niet is.
Mja, valt wel mee allemaal sinds het open standaarden zouden moeten zijn, maar waarom werken die open standaarden dan niet met hun eigen videokaarten die door de huidige driver ondersteund worden en dus blijkbaar nieuw genoeg zijn om support te krijgen ?!

Nee, alleen de nieuwste videokaarten die geen rebrand zijn + de kaarten van de concurrent indien ze interesse hebben... logisch! 8)7

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 15-06 12:44
Dat is toch helemaal niet vreemd? Die kaarten hebben de hardware er niet voor aan boord..
Nvidia is vrij om deze hardware in te bouwen en vervolgens gebruik te maken van True audio, dat is het hele idee.

Acties:
  • 0 Henk 'm!

Anoniem: 100386

enchion schreef op donderdag 05 juni 2014 @ 11:40:
[...]


Ik heb een screeny gevonden met meer info, op http://www.3dnews.ru/tags/murdered%3A%20soul%20suspect

[afbeelding]

Helaas kan ik dit niet zichtbaar krijgen, en ook jammer dat het niet gewoon onder de scherm opties valt maar uitsluitend voor video is.
Thx,

Maar ik was meer benieuwd naar deze settings, en of we als consument nu eindelijk eens zelf gebruik hiervan kunnen maken ... :

Afbeeldingslocatie: http://tweakers.net/ext/f/RI713MLnSSKhY8uYy92ipCPJ/full.jpg

[ Voor 6% gewijzigd door Anoniem: 100386 op 05-06-2014 23:09 ]


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

spNk schreef op donderdag 05 juni 2014 @ 22:09:
Dat is toch helemaal niet vreemd? Die kaarten hebben de hardware er niet voor aan boord..
Nvidia is vrij om deze hardware in te bouwen en vervolgens gebruik te maken van True audio, dat is het hele idee.
Ik geloof er niks van dat FreeSync en Mantle, maar vooral FreeSync niet op een 5xxx of 6xxx videokaart van ATI/AMD werkt : Dat is gewoon luiheid of expres via de drivers/software oudere kaarten buiten spel zetten :/

TrueAudio geloof ik wel en heb ik eigenlijk ook geen behoefte aan net als TXAA en HBAO+ van nVidia bijvoorbeeld, want dat zijn dingen waar ik toch geen gebruik van zal maken :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Lambo LP670 SV
  • Registratie: Oktober 2009
  • Laatst online: 15:28
http://be.hardware.info/n...gt-tahiti-op-in-september

Nog een laatste keer op 28 nm met zowel betere prestaties als een lager verbruik + zowel een desktop als mobiele versie ervan. Verwacht in september volgens de geruchten :)

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13:14
haarbal schreef op donderdag 05 juni 2014 @ 15:50:
Een 1440 va eizo met adaptive sync en strobing zou leuk zijn, wss ook 1000,- :P
Strobing + variabele refresh rate is lastig. Strobing is namelijk gebouwd op die vaste refresh rate, zodat de strobe dat met een factor X vermenigvuldigd is.

Waar ik wel weet dat in elk geval twee fabrikanten mee aan het experimenteren zijn, is een soortgelijk principe. Strobing dient vooral om ghosting tegen te gaan; in plaats van dit op vaste intervals te doen, zijn ze nu aan het spelen met het idee van een tweede backlight flits vlak na een refresh in plaats van tussen twee refreshes in. Dus in plaats van elke 8ms (60 Hz + strobe) of 4ms (120 Hz) of 3.5ms (144 Hz), standaard X ms na een refresh. Tot nog toe werkt dat wel, maar is het minder prettig om naar te kijken. Onze hersenen hebben blijkbaar toch liever die regelmaat :)
nero355 schreef op vrijdag 06 juni 2014 @ 01:41:
Ik geloof er niks van dat FreeSync en Mantle, maar vooral FreeSync niet op een 5xxx of 6xxx videokaart van ATI/AMD werkt : Dat is gewoon luiheid of expres via de drivers/software oudere kaarten buiten spel zetten :/
Niet helemaal. Een 58xx heeft slechts DP 1.1 dus dat is technisch gezien simpelweg niet mogelijk. Zoals ik eerder al zei, betekent het feit dat 1.2 een versie hoger is dat het dus ook een andere elektrische specificatie betreft (nieuwe hardware, andere hardware) en het dus niet compatible is. Daar zit dus geen luiheid of software-cockblock in.

Hetzelfde geldt voor Fermi, die zijn ook slechts DP 1.1. Nvidia gebruikt ook gewoon dezelfde onderdelen van de 1.2 spec voor G-Sync, dus hebben ook zij DP 1.2 nodig. Dat betekent Kepler of Maxwell.

Een 69xx zou op papier wel kunnen aangezien die wel 1.2 aan boord hebben.

Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Anoniem: 100386 schreef op donderdag 05 juni 2014 @ 23:08:
[...]


Thx,

Maar ik was meer benieuwd naar deze settings, en of we als consument nu eindelijk eens zelf gebruik hiervan kunnen maken ... :

[afbeelding]
Die kan ik wel zien alleen kan ik dat niet aanvinken/activeren omdat mijn scherm daar niet voor geschikt is.

btw echt niemand die iets kan zeggen over de Hue en Boost settings, ik krijg gewoon heel het Advanced tabblad niet, ook niet blanked. ???

Ik ben echt benieuwd naar wat er met die functie mogelijk is nl, misschien daarna handig om in SweetFX te hebben ofzo.

Liever hier antwoord op dan nog meer speculatieve posts over nVidia-G versus AMD-F aub. :)

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10-06 01:19

Sp3ci3s8472

@ 12 graden...

enchion schreef op vrijdag 06 juni 2014 @ 14:52:
[...]


Die kan ik wel zien alleen kan ik dat niet aanvinken/activeren omdat mijn scherm daar niet voor geschikt is.

btw echt niemand die iets kan zeggen over de Hue en Boost settings, ik krijg gewoon heel het Advanced tabblad niet, ook niet blanked. ???

Ik ben echt benieuwd naar wat er met die functie mogelijk is nl, misschien daarna handig om in SweetFX te hebben ofzo.

Liever hier antwoord op dan nog meer speculatieve posts over nVidia-G versus AMD-F aub. :)
Het enige wat die funtie zou doen is ervoor zorgen dat als je een 10bit paneel hebt dat je daar ook gebruik van kan maken met films indien die ook 10bits zijn. In feite geeft het een hogere dynamic range en je hebt minder banding met kleuren.
Voor mensen die veel met photoshop werken is bijv een 10bits paneel een goed iets denk ik :P.

Lees ook:
http://daredreamermag.com...erstanding-8bit-vs-10bit/
http://www.tftcentral.co....tent/ips_technologies.htm
http://www.tftcentral.co.uk/articles/content/6bit_8bit.htm

Ik denk dat het voor normale gebruikers niet heel interessant is.
Volgens mij zijn de meeste tn panelen 6+2 ofzo en dat ze doormiddel van dithering die +2 verkrijgen, in plaats van dat het echte 8bit panelen zijn.

Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Sp3ci3s8472 schreef op vrijdag 06 juni 2014 @ 15:16:
[...]


Het enige wat die funtie zou doen is ervoor zorgen dat als je een 10bit paneel hebt dat je daar ook gebruik van kan maken met films indien die ook 10bits zijn. In feite geeft het een hogere dynamic range en je hebt minder banding met kleuren.
Voor mensen die veel met photoshop werken is bijv een 10bits paneel een goed iets denk ik :P.

Lees ook:
http://daredreamermag.com...erstanding-8bit-vs-10bit/
http://www.tftcentral.co....tent/ips_technologies.htm
http://www.tftcentral.co.uk/articles/content/6bit_8bit.htm

Ik denk dat het voor normale gebruikers niet heel interessant is.
Volgens mij zijn de meeste tn panelen 6+2 ofzo en dat ze doormiddel van dithering die +2 verkrijgen, in plaats van dat het echte 8bit panelen zijn.
Thanks maar die over 8 versus 10bit wist ik al.

Ik had het over de functie bescreven in deze post, die over Hue en Boost.
enchion in "CJ's Radeon Info & Nieuwsdiscussie - Deel 127"

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10-06 01:19

Sp3ci3s8472

@ 12 graden...

enchion schreef op vrijdag 06 juni 2014 @ 15:30:
[...]


Thanks maar die over 8 versus 10bit wist ik al.

Ik had het over de functie bescreven in deze post, die over Hue en Boost.
enchion in "CJ's Radeon Info & Nieuwsdiscussie - Deel 127"
Inderdaad kwam erachter nadat ik mijn post had geplaast :P, begrijpend lezen (of niet slapend lezen) is ook een kunst.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 15-06 12:44
nero355 schreef op vrijdag 06 juni 2014 @ 01:41:
[...]

Ik geloof er niks van dat FreeSync en Mantle, maar vooral FreeSync niet op een 5xxx of 6xxx videokaart van ATI/AMD werkt : Dat is gewoon luiheid of expres via de drivers/software oudere kaarten buiten spel zetten :/

TrueAudio geloof ik wel en heb ik eigenlijk ook geen behoefte aan net als TXAA en HBAO+ van nVidia bijvoorbeeld, want dat zijn dingen waar ik toch geen gebruik van zal maken :)
Sorry, ik had het eigenlijk enkel over true audio.
Mantle met een juiste driver moet op alle kaarten die OpenCL ondersteunen in theorie kunnen werken volgens mij. AMD is ook niet gek overigens, het kost veel tijd om dit ook naar oudere series te brengen,
en het driver team heeft volgens mij zijn handen al vol aan enkel nieuwe drivers uitbrengen.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 15:33
Werelds schreef op vrijdag 06 juni 2014 @ 12:00:
Strobing + variabele refresh rate is lastig. Strobing is namelijk gebouwd op die vaste refresh rate, zodat de strobe dat met een factor X vermenigvuldigd is.

Waar ik wel weet dat in elk geval twee fabrikanten mee aan het experimenteren zijn, is een soortgelijk principe. Strobing dient vooral om ghosting tegen te gaan; in plaats van dit op vaste intervals te doen, zijn ze nu aan het spelen met het idee van een tweede backlight flits vlak na een refresh in plaats van tussen twee refreshes in. Dus in plaats van elke 8ms (60 Hz + strobe) of 4ms (120 Hz) of 3.5ms (144 Hz), standaard X ms na een refresh. Tot nog toe werkt dat wel, maar is het minder prettig om naar te kijken. Onze hersenen hebben blijkbaar toch liever die regelmaat :)
Mjah, misschien een lastig probleem, dat aan de ene kant je scherm maar net snel genoeg is om op 120hz regelmatig te kunnen stroben zonder dat je de refresh ziet, dat je waarschijnlijk niet onder de 85 a 100hz wil stroben, en dat je door het stroben misschien weer de problemen introduceert die je met variabele refresh probeert tegen te gaan.

tijd voor 400 Hz oleds :P

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

OLED is toch sowieso super snel net als CRT en Plasma dus dat hele Hz is niet van toepassing :?

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13:14
nero355 schreef op zaterdag 07 juni 2014 @ 21:10:
OLED is toch sowieso super snel net als CRT en Plasma dus dat hele Hz is niet van toepassing :?
Jawel hoor. Ik zal er niet te diep op in gaan omdat ik dan wederom off-topic ga over monitoren, maar even kort:

Belangrijkste is dat _al_ deze monitors een refresh rate hebben op de een of andere manier. Bij CRT is dat hoe vaak het scherm gescand wordt (hele beeld opnieuw getekend, dat zie je in opnames als die lijn die vertical over het scherm beweegt). Bij LCD is dat hoe vaak de backlight -ongeacht of dit nu CCFL of LED is- flitst. Bij Plasma zit dat in de stroomstoten. Bij OLED is dat (kort samen gevat) gelijk aan de respons tijd per pixel (anders dan bij alle andere monitors).

Niet elke OLED is gelijk aan elke andere ;)

Acties:
  • 0 Henk 'm!

Anoniem: 59888

Werelds schreef op donderdag 05 juni 2014 @ 13:11:
[...]

Er zijn geen nieuwe "scalers" nodig, er is alleen nieuwe software nodig. En waarom blijft iedereen verwijzen naar DP 1.2a als nieuwe standaard?

Adaptive Sync is als nieuwe optionele spec toegevoegd aan de al langer bestaande DP 1.2a specificatie. Dat betekent ook dat volgens VESA's eigen regels er géén nieuwe hardware nodig is. Nieuwe hardware (electrische specificaties dus) vereist een nieuwe versie. Dan had Adaptive Sync dus alleen in 1.3 terecht kunnen komen.
Ah juist, dank voor de correctie. Ik moet me echt eens meer verdiepen in die materie voor ik er dit soort uitspraken over ga doen, dat werkt niet. :X
Werelds schreef op donderdag 05 juni 2014 @ 13:11:
[...]

Heh? Nvidia's ASIC is niet zomaar plug en play met elke monitor. En je verliest alle features van je monitor's eigen bord, wat bij de betere monitoren voor aardig wat kwaliteitsverlies zorgt.
Dat is een misverstand, ik doelde op wat er aan de kant van de graka gebeurt, niet aan de kant van de monitor. Maar goed, dat was weer voortboordurend op het hele DP1.2a verhaal wat niet klopt, dus dat kan daarmee dan ook de prullenbak in.

nero355 schreef op donderdag 05 juni 2014 @ 19:32:
[...]

Mja, valt wel mee allemaal sinds het open standaarden zouden moeten zijn, maar waarom werken die open standaarden dan niet met hun eigen videokaarten die door de huidige driver ondersteund worden en dus blijkbaar nieuw genoeg zijn om support te krijgen ?!

Nee, alleen de nieuwste videokaarten die geen rebrand zijn + de kaarten van de concurrent indien ze interesse hebben... logisch! 8)7
Dat klopt niet helemaal. Mantle ondersteunt alleen GCN kaarten. Buiten de boot vallen de R5 kaarten van deze generatie, en 76xx en lager van de vorige generatie. Alle andere kaarten uit die twee generaties worden wèl ondersteund. In de praktijk betekent dat, dat alleen low-end kaarten en kaarten van twee generaties geleden (2010!) en ouder niet ondersteund worden. Gratis nieuwe features voor je bestaande kaart is natuurlijk leuk, maar dat houdt een keer op. Vergeet ook niet dat Mantle nog niet af is, en tegen de tijd dat het uit de beta-fase komt er al wel eens een nieuwe generatie kaarten in de winkels zou kunnen liggen.

Kijk, als die oudere kaarten Mantle-games nou helemaal niet zouden kunnen draaien had je een punt gehad, maar dat is niet het geval. Games zullen DirectX echt niet zomaar overboord gooien, dus voorlopig kun je op die oude kaarten ook gewoon nog blijven gamen. Je kunt niet mee in de Mantle-performance-boost, maar dat je met een oude of low-end kaart dingen misloopt is nooit anders geweest, en wat mij betreft geen probleem. Een PC moet je nu eenmaal af en toe upgraden, als je hardware wil die heel lang meegaat kun je beter je een console kopen, niet al te lang na de launch. Daar krijg je dan wel lage resoluties en framerate voor, en dat zal er in de loop der jaren niet beter op worden. ;)

[ Voor 3% gewijzigd door Anoniem: 59888 op 08-06-2014 05:35 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13:14
Anoniem: 59888 schreef op zondag 08 juni 2014 @ 05:32:
Ah juist, dank voor de correctie. Ik moet me echt eens meer verdiepen in die materie voor ik er dit soort uitspraken over ga doen, dat werkt niet. :X
Hoeft niet hoor, doet 75% van alle "tech" sites ook niet :+
Dat klopt niet helemaal. Mantle ondersteunt alleen GCN kaarten.
Ook dat statement klopt niet helemaal. Mantle ondersteunt helemaal niets, if you catch my drift ;)

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Het is inderdaad zo dat de huidige drivers Mantle ondersteunen voor de GCN kaarten, maar uiteindelijk kunnen Intel en Nvidia ook drivers voor Mantle schrijven.

Acties:
  • 0 Henk 'm!

Anoniem: 590917

Phuncz schreef op zondag 08 juni 2014 @ 16:28:
Het is inderdaad zo dat de huidige drivers Mantle ondersteunen voor de GCN kaarten, maar uiteindelijk kunnen Intel en Nvidia ook drivers voor Mantle schrijven.
Ik vraag me af of dat nog wel nodig door de komst van dx12 omdat tot dan nog niet genoeg games Mantle hebben, en om daar nu extra werk in te moeten steken lijkt me dat niet handig voor een bedrijf als Intel want het kost weer tijd en geld + ze doen het maar voor een paar games en erna heeft het geen zin meer omdat dx12 er is die het zelfde kan want Mantle ook kan als MS dat waar kan maken.

http://www.developer-tech...arket-getting-bit-mental/

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Dunno of het nodig is, we zullen eerst DX12 moeten afwachten of het ook wat oplevert.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13:14
Anoniem: 590917 schreef op zondag 08 juni 2014 @ 16:59:
[...]

Ik vraag me af of dat nog wel nodig door de komst van dx12 omdat tot dan nog niet genoeg games Mantle hebben, en om daar nu extra werk in te moeten steken lijkt me dat niet handig voor een bedrijf als Intel want het kost weer tijd en geld + ze doen het maar voor een paar games en erna heeft het geen zin meer omdat dx12 er is die het zelfde kan want Mantle ook kan als MS dat waar kan maken.

http://www.developer-tech...arket-getting-bit-mental/
Voor Windows zal Mantle waarschijnlijk gewoon het onderspit delven tegenover DX12, als MS inderdaad hetzelfde voor elkaar krijgt als AMD.

AMD wil Mantle echter ook buiten Windows beschikbaar maken en dan is het een ander verhaal. Hoewel OpenGL veel kan bewerkstelligen, is het ook op z'n zachts gezegd een hel om dat te doen. Je moet dan expliciet de extensies van Nvidia, AMD en Intel gebruiken. Als ze Mantle op Linux en OS X aan het draaien krijgen kan het wel eens een ander verhaal worden. Hangt het wel nog steeds af van of in elk geval Intel mee wil werken; Apple krijgen ze dan wel om. Apple is niet gebonden aan Nvidia ondanks het feit dat ze momenteel vooral Nvidia aanbieden; OS X draait op OpenCL, waar zowel Intel als AMD harder aan werken dan Nvidia ooit zal doen. Als AMD daar nu keihard aan werkt zou dat wel eens een stevige impact op de gaming markt kunnen hebben; shaders die poep eenvoudig te porten zijn, een API die sterk op de bestaande low level API's lijkt. Dat zou Linux en OS X ineens serieus boeiend kunnen maken om games op te draaien.

[ Voor 9% gewijzigd door Werelds op 08-06-2014 21:32 ]


Acties:
  • 0 Henk 'm!

Anoniem: 59888

Wat mij betreft is het idee dat ome Microsoft het allemaal wel eventjes voor elkaar krijgt nogal optimistisch. Laten we niet vergeten dat ze de afgelopen vijf jaar diverse beloften over PC gaming gedaan hebben, waarvan geen enkele waarheid is geworden. Dat wil niet zeggen dat dat deze keer ook zo zal zijn, maar ze hebben de schijn flink tegen. Wat mij betreft dus zeker een kwestie van: eerst zien, dan geloven.

Daar komt bij dat het overduidelijk is dat Microsoft voor wat betreft gaming primair een console-fabrikant is, en pas daarna interesse heeft in PC gaming. Microsoft zou voor Windows 9 de store kunnen verplichten, waarbij het alleen nog maar mogelijk is om programma's via de Windows Store te installeren, waarmee Microsoft gaat bepalen welke software er op Windows uitkomt, en wanneer. Vergelijkbaar met de positie van Apple op iOS.

Dat zou betekenen dat een console-fabrikant absolute zeggenschap krijgt over PC gaming, en het een koud kunstje zou zijn om PC gaming de nek om te draaien of in elk geval alle cross-platform games later uit te laten komen op de PC. Of Microsoft dat daadwerkelijk zou doen of niet is eigenlijk niet zo relevant, het laat zien dat het heel ongezond is voor de PC gaming industrie om zo afhankelijk te zijn van Microsoft, en dat weten ze. Dat is de reden dat Valve met SteamOS en Steam Machines komt, dat alle grote game engines nu ook linux ondersteunen en er meer en meer games naast Windows ook op Linux en Mac uit komen.

Zelfs als DX12 alle beloften waar maakt is het maar de vraag in hoeverre de industrie nog wel op een Windows-exclusieve API van Microsoft zit te wachten. Dat klinkt nogal onwaarschijnlijk, maar als je me twee jaar geleden had verteld dat in 2014 alle grote game engines Linux ondersteunen had ik je ook voor gek verklaard. Stiekem is er best e.e.a. gaande wat dat betreft, en dingen die ooit onmogelijk leken zijn dat ineens niet meer. Misschien ben ik wat optimistisch, maar ik zou er persoonlijk geen geld op inzetten dat Windows over vijf jaar nog steeds het dominante gaming-OS op de PC is.

Werelds schreef op zondag 08 juni 2014 @ 14:49:
[...]

Ook dat statement klopt niet helemaal. Mantle ondersteunt helemaal niets, if you catch my drift ;)
Mja da's een kwestie van drivers idd, maar "driverondersteuning voor Mantle op een oude GPU architectuur" bekt zo onhandig. :-( ;)

[ Voor 7% gewijzigd door Anoniem: 59888 op 09-06-2014 00:46 ]


Acties:
  • 0 Henk 'm!
Voor Windows 9 de store gaan verplichten voor alle software gaan ze nooit doen, daar zou zoveel kritiek op komen. Dat zou betekenen dat niemand ooit ook maar naar Win9 zou overstappen. Microsoft krabbelt zelf nu ook wat terug met 8.1 en nog wat meer met Update 1, zijn zelf erg sterke geruchten voor het terug komen van het startmenu. Never nooit niet dat ze bij Win9 dus de store verplicht stellen, dat zou het begin van het einde van Windows zijn lijkt mij.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10-06 01:19

Sp3ci3s8472

@ 12 graden...

Werelds schreef op zondag 08 juni 2014 @ 21:30:
[...]

Voor Windows zal Mantle waarschijnlijk gewoon het onderspit delven tegenover DX12, als MS inderdaad hetzelfde voor elkaar krijgt als AMD.
Dat zou best kunnen maar dat gaat ze niet lukken als ze het alleen in Windows 9 of 8 stoppen. Van alle mensen in mijn directe omgeving is niemand overgestapt op Windows 8, die zijn allemaal tevreden met xp of 7 :p.

Acties:
  • 0 Henk 'm!

Anoniem: 59888

-The_Mask- schreef op maandag 09 juni 2014 @ 01:16:
Voor Windows 9 de store gaan verplichten voor alle software gaan ze nooit doen, daar zou zoveel kritiek op komen. Dat zou betekenen dat niemand ooit ook maar naar Win9 zou overstappen. Microsoft krabbelt zelf nu ook wat terug met 8.1 en nog wat meer met Update 1, zijn zelf erg sterke geruchten voor het terug komen van het startmenu. Never nooit niet dat ze bij Win9 dus de store verplicht stellen, dat zou het begin van het einde van Windows zijn lijkt mij.
In één klap is te snel inderdaad, maar onmogelijk is het niet. Dan voeren ze gewoon een of ander "Certified for Windows" programma in waarvoor Windows Store verplicht is, zodat je bij alle andere installers een mooi waarschuwingsscherm krijgt. Voor Windows 10 huren ze dan één of ander onderzoeksbureau in dat een onderzoek produceert waaruit blijkt dat 95% van alle software via de Windows Store wordt geïnstalleerd en gebruikers heel tevreden zijn, en wordt de ondersteuning voor het installeren van software buiten het geëikte distributiekanaal "stopgezet".

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Dat lijkt me inderdaad geen onrealistisch scenario, Win 8 lijkt ons ook de strot ingeduwd, alsof het hele non-touch werken met PC's al gedaan was. Microsoft heeft al vaak van dit soort fratsen gedaan en het zou ze zeker lukken de store "semi-verplicht" te maken. Ik zie ze bv. een sandbox mode opzetten voor non-store apps die geen toegang hebben tot alle API's of iets dergelijks. Het zou hun probleem van virussen zeer hard aanpakken en de mensen datzelfde warme, veilige gevoel van de App Store (Apple) geven.

Daarom kijk ik ook niet lonkend uit naar DX12, het beperkt de mogelijkheden voor later. Ik wil SteamOS zien slagen, ik wil MacOS games zien verkopen, zodat de consument keuze heeft en de development studios ook niet verplicht worden voor één of twee financieel aantrekkelijke platformen te ontwikkelen.

Acties:
  • 0 Henk 'm!

Anoniem: 590917

Werelds schreef op zondag 08 juni 2014 @ 21:30:
[...]

Voor Windows zal Mantle waarschijnlijk gewoon het onderspit delven tegenover DX12, als MS inderdaad hetzelfde voor elkaar krijgt als AMD.

AMD wil Mantle echter ook buiten Windows beschikbaar maken en dan is het een ander verhaal. Hoewel OpenGL veel kan bewerkstelligen, is het ook op z'n zachts gezegd een hel om dat te doen. Je moet dan expliciet de extensies van Nvidia, AMD en Intel gebruiken. Als ze Mantle op Linux en OS X aan het draaien krijgen kan het wel eens een ander verhaal worden. Hangt het wel nog steeds af van of in elk geval Intel mee wil werken; Apple krijgen ze dan wel om. Apple is niet gebonden aan Nvidia ondanks het feit dat ze momenteel vooral Nvidia aanbieden; OS X draait op OpenCL, waar zowel Intel als AMD harder aan werken dan Nvidia ooit zal doen. Als AMD daar nu keihard aan werkt zou dat wel eens een stevige impact op de gaming markt kunnen hebben; shaders die poep eenvoudig te porten zijn, een API die sterk op de bestaande low level API's lijkt. Dat zou Linux en OS X ineens serieus boeiend kunnen maken om games op te draaien.
Dus er is nog wel toekomst voor Mantle, dat is mooi want anders was het voor niets geweest en dat is zonde van al die tijd die er in is gestoken. Ik zie wel vaker dat games OGL API gebruiken vanwege Linux en moet zeggen dat die game vrijwel direct goed draaien op Windows en dat zal misschien op Linux nog wel beter werken? Maar goed ik blijf bij windows omdat windows de hoofdaanbieder is van de meeste games en ik verwacht dat daar geen verandering in komt de komende jaren en gezien het percentage wat windows gebruiker is en dat veranderd niet even in 2 jaar tijd naar een ander OS

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 15:33
Als ik zoek naar mantle voor linux vind ik alleen berichten dat amd het overweegt maar dat het onwaarschijnlijk is.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13:14
Anoniem: 59888 schreef op maandag 09 juni 2014 @ 00:43:
Misschien ben ik wat optimistisch, maar ik zou er persoonlijk geen geld op inzetten dat Windows over vijf jaar nog steeds het dominante gaming-OS op de PC is.
Daar ben ik het met je eens. Apple wil het wel, Linux (en dan met name Ubuntu) heeft nu Valve achter zich. Gooi daar het feit bij dat to-the-metal weer hip is en we zullen inderdaad wat verschuivingen zien. Neemt niet weg dat MS gewoon de dominante partij is op de PC. Dat ze het met hun console afleggen tegen Sony doet daar niets aan af.
Mja da's een kwestie van drivers idd, maar "driverondersteuning voor Mantle op een oude GPU architectuur" bekt zo onhandig. :-( ;)
Duh :P
Sp3ci3s8472 schreef op maandag 09 juni 2014 @ 01:22:
Dat zou best kunnen maar dat gaat ze niet lukken als ze het alleen in Windows 9 of 8 stoppen. Van alle mensen in mijn directe omgeving is niemand overgestapt op Windows 8, die zijn allemaal tevreden met xp of 7 :p.
Dat komt ook doordat Windows 8 een belachelijke interface heeft. Als ze dat met Windows 9 gewoon weer terug draaien boeit het de meeste gamers geen reet. En met name in de VS hebben ze dat extra stukje marketing tussen de Xbox One en de PC; ik verwacht dat MS daar nog meer mee gaat doen. "Microsoft in your home".
Anoniem: 590917 schreef op maandag 09 juni 2014 @ 09:15:
Dus er is nog wel toekomst voor Mantle, dat is mooi want anders was het voor niets geweest en dat is zonde van al die tijd die er in is gestoken. Ik zie wel vaker dat games OGL API gebruiken vanwege Linux en moet zeggen dat die game vrijwel direct goed draaien op Windows en dat zal misschien op Linux nog wel beter werken? Maar goed ik blijf bij windows omdat windows de hoofdaanbieder is van de meeste games en ik verwacht dat daar geen verandering in komt de komende jaren en gezien het percentage wat windows gebruiker is en dat veranderd niet even in 2 jaar tijd naar een ander OS
OGL wordt eigenlijk nog maar weinig ondersteund en de meeste OGL games zijn ook niet helemaal bijtijds meer. Kijk maar naar Wolfenstein: The New Order. Geweldige game, maar op technisch vlak zit dat nog in 2006 (net als Rage overigens). Je ziet ook dat ze allerlei hacks hebben uit gehaald om te doen wat ze wilden doen, waardoor het er niet alleen ondermaats uit ziet, maar ook nog eens ondermaats presteert.

Het probleem met OGL op de desktop is dat de Khronos groep te traag is met wijzigingen; ze hobbelen met veel features achter MS aan. En dat komt op zijn beurt weer doordat de Khronos groep partijen heeft die er eigenlijk geen reet over te zeggen zouden moeten hebben. Daarom maakt Mantle ook meer kans. Daar zit een GPU fabrikant achter die advies in wint van game developers. Meer is niet nodig. Ik zou heel graag een alliantie tussen Nvidia en AMD op dat gebied zien, maar dat gebeurt pas als pasen en pinksteren op één dag vallen ;)
haarbal schreef op maandag 09 juni 2014 @ 09:47:
Als ik zoek naar mantle voor linux vind ik alleen berichten dat amd het overweegt maar dat het onwaarschijnlijk is.
Op korte termijn wel ja. AMD heeft echter meer dan eens aangegeven dat ze de API wel naar andere platforms willen brengen, het is nu alleen niet zinnig omdat de API eerst volwassen moet worden. En dat kan nu eenmaal het beste op het #1 platform.

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Anoniem: 59888 schreef op maandag 09 juni 2014 @ 00:43:
Wat mij betreft is het idee dat ome Microsoft het allemaal wel eventjes voor elkaar krijgt nogal optimistisch.
Gezien de schaalgroote verwacht ik dat MS (als het het echt zou willen) gecomineerd met Nvidia allang een DX12 op de markt had kunnen brengen die de vloer aanveegt met Mantle. Is meer de vraag hoe hoog het op het prioriteiten lijstje staat en dus wanneer we het kunnen verwachten. MS kan er namelijk makkelijk een paar miljard op stuk slaan om het proces te versnellen.
(als het prio 1 had, boven xbone, WP en W8.1/W9 was het er allang geweest).

Wat betreft de Windows hegemonie voor gaming. Die gaat nog jaren aanhouden al was het alleen maar vanwege de backwards compatibility die Linux en OSX missen waardoor gelijk >90% van de games niet werkt. Linux heeft nog een lange weg te gaan (hoewel ik hoop ooit zonder windows te kunnen) want van mijn >300 games zijn volgens mij alleen de games van Valve de Triple A games die op Linux werken.

[ Voor 30% gewijzigd door eL_Jay op 09-06-2014 10:29 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10-06 01:19

Sp3ci3s8472

@ 12 graden...

Werelds schreef op maandag 09 juni 2014 @ 10:18:
[...]

Dat komt ook doordat Windows 8 een belachelijke interface heeft. Als ze dat met Windows 9 gewoon weer terug draaien boeit het de meeste gamers geen reet. En met name in de VS hebben ze dat extra stukje marketing tussen de Xbox One en de PC; ik verwacht dat MS daar nog meer mee gaat doen. "Microsoft in your home".
Inderdaad, als het dezelfde interface had gehad was ik misschien overgestapt. Maar zolang het eruitziet alsof het voor een tablet is ontworpen en je steeds naar die andere interface terugmoet ga ik niet over.
Met elke muis is het mogelijk om binnen 5 pixels ergens op te klikken, daar heb je geen barst aan die grote tegels.
eL_Jay schreef op maandag 09 juni 2014 @ 10:23:
[...]

Gezien de schaalgroote verwacht ik dat MS (als het het echt zou willen) gecomineerd met Nvidia allang een DX12 op de markt had kunnen brengen die de vloer aanveegt met Mantle. Is meer de vraag hoe hoog het op het prioriteiten lijstje staat en dus wanneer we het kunnen verwachten. MS kan er namelijk makkelijk een paar miljard op stuk slaan om het proces te versnellen.
(als het prio 1 had, boven xbone, WP en W8.1/W9 was het er allang geweest).
Lijkt mij trouwens een uitermate domme actie om met maar 1 fabrikant DX12 te ontwikkelen, als dat niet zuiver gebeurt dan zou het me niet verbazen dat AMD DX12 support op een laag pitje zet en inzet op Mantle. Vraag me ook af hoever het klopt dat ze er "allang" mee bezig waren, het lijkt meer op een reactie van Nvidia die snel even Mantle moest downplayen.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 15:33
Sp3ci3s8472 schreef op maandag 09 juni 2014 @ 14:30:
Lijkt mij trouwens een uitermate domme actie om met maar 1 fabrikant DX12 te ontwikkelen, als dat niet zuiver gebeurt dan zou het me niet verbazen dat AMD DX12 support op een laag pitje zet en inzet op Mantle. Vraag me ook af hoever het klopt dat ze er "allang" mee bezig waren, het lijkt meer op een reactie van Nvidia die snel even Mantle moest downplayen.
Met de amd hardware in de xbox one zal het met dx12 ook wel goedkomen.

Door nvidia bij dx12 te betrekken verzekert microsoft zich wederom van windows als enige os voor games. Nvidia is zelfs stukken physx naar directcompute aan het porten.

Stel dat nvidia opengl hard zou gaan pushen als reactie op mantle en amd had mantle naar linux geport dan hadden ze gaming van windows los kunnen weken.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Anoniem: 590917

Zo ver ik weet werken gewoon meerdere bedrijven aan dx12 dat staat tenminste op veel plaatjes.
AMD, Nvidia, Intel en Qualcomm werken er samen aan.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10-06 01:19

Sp3ci3s8472

@ 12 graden...

Anoniem: 590917 schreef op maandag 09 juni 2014 @ 15:52:
Zo ver ik weet werken gewoon meerdere bedrijven aan dx12 dat staat tenminste op veel plaatjes.
AMD, Nvidia, Intel en Qualcomm werken er samen aan.
Qualcomm ook?

Dat klopt er werken inderdaad meerdere bedrijven aan, daarom vond ik het nieuwsbericht van een tijd terug ook zo raar dat Nvidia met Microsoft DX12 al "haast" klaar had.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 15:33
alleen amd en nvidia zijn relevant, misschien intel een klein beetje, maar vooralsnog is cpu overhead daar niet echt een issue.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Anoniem: 590917

Ik heb zo juist eens wat rond gekeken en DX12 schijnt al gebruikt te worden en dat gaan we vanavond misschien meer over zien? MS komt in ieder geval met een racegame die gebruikt maakt van dx12
YouTube: DirectX 12 being used now!

Acties:
  • 0 Henk 'm!

Anoniem: 59888

eL_Jay schreef op maandag 09 juni 2014 @ 10:23:
[...]

Gezien de schaalgroote verwacht ik dat MS (als het het echt zou willen) gecomineerd met Nvidia allang een DX12 op de markt had kunnen brengen die de vloer aanveegt met Mantle. Is meer de vraag hoe hoog het op het prioriteiten lijstje staat en dus wanneer we het kunnen verwachten.
Nou nee, dat is toch echt veel te simpel gedacht. Het is niet zo dat als je ergens 200 programmeurs tegenaan gooit die 200 keer zo veel werk verzetten als één programmeur. Het schaalt wel, maar zeker niet lineair. Hoe meer mensen op één project hoe groter de overheid van samenwerking, vergaderingen etc. Met een complex project als DirectX wat ook nog eens nauw met Windows is verweven wordt dat er bepaald niet beter op. Daarnaast valt testen ook lastig te schalen. Kortom, de schaal van Microsoft is wel een voordeel, maar het is echt niet zo dat ze daar even in een vloek en een zucht een API uit de hoge hoed toveren die de vloer aanveegt met Mantle. Zelfs Microsoft kan niet heksen. ;)
eL_Jay schreef op maandag 09 juni 2014 @ 10:23:
MS kan er namelijk makkelijk een paar miljard op stuk slaan om het proces te versnellen.
(als het prio 1 had, boven xbone, WP en W8.1/W9 was het er allang geweest).
Een paar miljard investeren zonder dat duidelijk is hoe dat ooit terugverdiend gaat worden? Dat zouden de aandeelhouders nooit accepteren en zou de nieuwe CEO en gehele directie onmiddelijk de kop kosten. Uiteraard kan er wel geld in PC gaming geïnvesteerd worden maar een paar miljard "stuk slaan" is echt niet aan de orde.
eL_Jay schreef op maandag 09 juni 2014 @ 10:23:
Wat betreft de Windows hegemonie voor gaming. Die gaat nog jaren aanhouden al was het alleen maar vanwege de backwards compatibility die Linux en OSX missen waardoor gelijk >90% van de games niet werkt. Linux heeft nog een lange weg te gaan (hoewel ik hoop ooit zonder windows te kunnen) want van mijn >300 games zijn volgens mij alleen de games van Valve de Triple A games die op Linux werken.
Nou ja, je hoeft je Windows-installatie natuurlijk niet meteen te nuken als je op Linux wil gaan gamen, dat kan naast elkaar. Het is wel een issue, maar de meeste mensen spelen toch vooral de nieuwste games. Als Linux-gaming aantrekkelijk genoeg is zal dat een overstap niet tegenhouden. Op de consoles was het ontbreken van backwards compatibility ooit ondenkbaar, die tijden zijn reeds lang voorbij.

Voor wat betreft AAA Linux games valt dat inderdaad nog wat tegen, maar alle grote game engines ondersteunen inmiddels Linux en dat doen ze echt niet voor de lol. AAA games voor Linux zijn in aantocht. Bij wat minder bekende games (Serious Sam 3, The Witcher 3) is die ondersteuning er soms al wel en ook bij indie games zie je het steeds meer.

[ Voor 6% gewijzigd door Anoniem: 59888 op 09-06-2014 17:24 ]


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Anoniem: 59888 schreef op maandag 09 juni 2014 @ 17:20:
[...]


Een paar miljard investeren zonder dat duidelijk is hoe dat ooit terugverdiend gaat worden? Dat zouden de aandeelhouders nooit accepteren en zou de nieuwe CEO en gehele directie onmiddelijk de kop kosten. Uiteraard kan er wel geld in PC gaming geïnvesteerd worden maar een paar miljard "stuk slaan" is echt niet aan de orde.
Ik geef alleen maar aan dat MS dat kan doen mochten de aandeelhouders daartoe besluiten (prio 1 geven) en ja, ik denk dat Windows als game-OS zeker stellen een strategisch verantwoorde keuze is voor MS, veel verantwoorder dan een WP of Xbone. (op de xbox en WP zijn ook miljarden stukgeslagen). Immers als gaming op Linux net zo goed werkt als op Windows zal imo het marktaandeel windows significant afnemen bij de consument, want buiten ondersteuning voor pro software heeft windows dan feitelijk geen USP's meer.

(intel kan ook ettele miljarden stuk slaan op een nieuwe chipfabriek voor 10nm, AMD niet, het verschil n schaalgrootte tussen AMD en Intel is volgens mij redelijk vergelijkbaar met die tussen AMD vs MS)

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10-06 01:19

Sp3ci3s8472

@ 12 graden...

Anoniem: 590917 schreef op maandag 09 juni 2014 @ 16:09:
Ik heb zo juist eens wat rond gekeken en DX12 schijnt al gebruikt te worden en dat gaan we vanavond misschien meer over zien? MS komt in ieder geval met een racegame die gebruikt maakt van dx12
YouTube: DirectX 12 being used now!
Niet meer dan logisch dat als het in ontwikkeling is dat er al mee wordt getest.

Ik vraag mij trouwens af hoe betrouwbaar deze bron is, het is een klein youtube kanaal dat uit het niets verteld dat hij "reliable sources" heeft. Als een van de bekende youtube kanalen de melding hadden gemaakt dat was ik eerder geneigd het te geloven :P.

Heeft iemand gister de stream van Microsoft gezien? Volgens mij is er niks over DX12 gezegt zover ik weet, verder kan ik er ook niet veel meer van vinden behalve dat MS een beloft heeft gemaakt dat ze meer info vrij gaan geven (:)).
JStardock founder and CEO Brad Wardell has talked about DirectX 12 and believes that the new graphics API from Microsoft will effectively double the power of the console by improving the performance of games and allowing them to better utilize existing hardware.

DirectX 12 was revealed to the world last week by Microsoft at its BUILD conference as the next evolution of the popular graphics API. Unlike current editions of the technology, the new one will be supported across all of Microsoft's devices, from the Windows-based PCs to the Xbox One or the Windows Phone gadgets.

According to Stardock CEO Brad Wardell, who discussed the new technology for NeoWin, DirectX 12 promises to pretty much double the graphics performance of existing hardware.

Wardell is a strong believer, especially since he is involved with Star Swarm technical demo. The demo currently supports DirectX 11 as well as AMD's new Mantle API, which promises increased performance for certain AMD graphics cards.

After this experience, the Stardock boss is confident that DirectX 12 will signal even bigger changes across many devices.

"With relatively little effort by developers, upcoming Xbox One games, PC Games and Windows Phone games will see a doubling in graphics performance. Suddenly, that Xbox One game that struggled at 720p will be able to reach fantastic performance at 1080p. For developers, this is a game changer."

Wardell emphasizes that, once a video card is released, the performance achieved through software like drivers or APIs can see just slight improvements. With DirectX 12, however, a huge leap can be experienced on the PC.

On the Xbox One the benefit is even bigger, with the developer claiming that the tech "effectively gives every Xbox One owner a new GPU that is twice as fast as the old one."

As a game developer, Wardell also noted that DirectX 12 might have a few problems. First up, in terms of hardware, as current graphics cards have their heat management tools tweaked for DirectX 11, which doesn't use the whole card. Once the new tech appears, expect quite a few heating problems to appear in PCs.

The API will also let developers have greater control over the whole process, which means programmers will have to deal with new problems and issues, instead of relying on DirectX to solve them.

Microsoft has promised that it's going to share way more details about DirectX 12 at E3 2014 in June.
Het lijkt dus ook op de Xbone gericht te zijn omdat de huidige DX die daar in zit maar een thread gebruikt voor dx calls, ik dacht dat consoles juist multithreading beter deden. Dat MS op dit moment een API gebruikt die dat niet goed verzorgt is jammer.
DirectX 12 for Xbox One will make it easier for developers to run games in higher resolutions and with more detail, Stardock founder and CEO Brad Wardell has said.

Posting on Twitter, Wardell wrote: "One way to look at the XBox One with DirectX 11 is it has 8 cores but only 1 of them does dx work. With dx12, all 8 do."

Another Twitter user argues that Xbox One already does this, but Wardell says this isn't the case.

"I'm sorry but you're totally wrong on that front," he responded before adding, "XBO is very low on overhead. Overhead is not the problem. It is that the XBO isn't splitting DX tasks across the 8 cores."

Asked on Twitter how DX12 will benefit Xbox One games, Wardell replied: "I think it'll make it easier to have games run at higher resolution and have more objects on screen at once."
http://www.videogamer.com...uggests_stardock_ceo.html

Acties:
  • 0 Henk 'm!

Anoniem: 590917

Niet alleen dat youtube filmpje maar ook op 20 maart aangekondigd waar die game op DX12 draait, blijkbaar is het hier niet opgevallen/misgelopen?

http://www.gameparty.net/...emo-met-directx-12-gelekt

Ook al is het een demo, er is wel een werkende DX12 te zien.

Verder werd er niets over DX12 verteld dat is nog een verrassing maar ja ik zij dan ook niet dat het wel zo zou zijn maar misschien, kan nog komen.

[ Voor 53% gewijzigd door Anoniem: 590917 op 10-06-2014 11:27 ]


Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 17-05 11:15
Sp3ci3s8472 schreef op dinsdag 10 juni 2014 @ 10:10:
[...]
Heeft iemand gister de stream van Microsoft gezien? Volgens mij is er niks over DX12 gezegt zover ik weet, verder kan ik er ook niet veel meer van vinden behalve dat MS een beloft heeft gemaakt dat ze meer info vrij gaan geven (:)).
Nee, is met geen woord over gerept, alleen gamesgamesgames. Wellicht nu de E3 open is voor publiek dat er in wat interviews iets meer duidelijk wordt.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 15-06 10:01
Sp3ci3s8472 schreef op dinsdag 10 juni 2014 @ 10:10:
[...]


Niet meer dan logisch dat als het in ontwikkeling is dat er al mee wordt getest.

Ik vraag mij trouwens af hoe betrouwbaar deze bron is, het is een klein youtube kanaal dat uit het niets verteld dat hij "reliable sources" heeft. Als een van de bekende youtube kanalen de melding hadden gemaakt dat was ik eerder geneigd het te geloven :P.

Heeft iemand gister de stream van Microsoft gezien? Volgens mij is er niks over DX12 gezegt zover ik weet, verder kan ik er ook niet veel meer van vinden behalve dat MS een beloft heeft gemaakt dat ze meer info vrij gaan geven (:)).


[...]


Het lijkt dus ook op de Xbone gericht te zijn omdat de huidige DX die daar in zit maar een thread gebruikt voor dx calls, ik dacht dat consoles juist multithreading beter deden. Dat MS op dit moment een API gebruikt die dat niet goed verzorgt is jammer.


[...]

http://www.videogamer.com...uggests_stardock_ceo.html
Mooi verhaal maar ga dat eerst maar eens waar maken. Dubbele performance uit dezelfde hardware zie ik niet snel gebeuren.

En dat stuk over dat videokaarten dan ineens te warm zoden worden klopt ook niet. In ieder geval niet in het geval van de R9 290X. Die zou dat prima aan kunnen. Ja hij clockt dan wel terug om te zorgen dat hij niet te warm wordt. Maar het gaat wel goed werken.

Als ik me niet vergis heeft nVidia daar ook allemaal mooie dingen voor. Dus ik denk dat dat ook niet zo'n issue zal zijn.

Daarnaast heeft de HD6xxx serie al powertune. En dus een TDP limit. Ga je daar overheen clockt hij terug. Kortom je video kaart moet wel heel oud zijn wil je daar echt problemen mee kunnen krijgen.

En de meeste kaarten konden furmark prima aan. En daarmee had je veel meer hitte dan wat je in games voor elkaar kon krijgen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13:14
haarbal schreef op maandag 09 juni 2014 @ 14:59:
Nvidia is zelfs stukken physx naar directcompute aan het porten.
Mooi, wellicht zien we dat tegen 2028 dan in games ;)

Waar jij het over hebt is FLEX. Dat wordt nu alleen aan TWIMTBP partners als toevoeging aan 3.3 aangeboden. Het staat pas voor 3.4 als algemene feature gepland en over enige DirectCompute functionaliteit heeft Nvidia niet meer gerept sinds september vorig jaar.

Waarom is die versie belangrijk? Omdat er voor zover ik weet geen enkele game buiten Planetside 2 3.x gebruikt. 3.0, waar de eerste serie CPU optimalisaties in zitten, is inmiddels DRIE jaar oud. En toch gebruiken games als Arkham Origins en Black Flag nog steeds doodleuk 2.8.6 of 2.8.4.

Dus of je aan dat statement nu enige waarde moet hechten? Nee, niet echt. Wat Nvidia zegt en wat Nvidia doet zijn twee heel erg verschillende dingen.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 15:33
arma 3 gebruikt ook 3, denk dat alle titels met physx die niet meer op de ps360 uitkomen dat wel zullen doen.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13:14
Klopt ja, mijn excuses. Neemt niet weg dat we er de eerstkomende 4 jaar niets van hoeven te verwachten.
Pagina: 1 ... 5 6 Laatste

Dit topic is gesloten.