CJ's Radeon Info & Nieuwsdiscussie - Deel 127 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 6 Laatste
Acties:
  • 24.611 views

Onderwerpen


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10:46
Anoniem: 59888 schreef op woensdag 04 juni 2014 @ 19:37:
Het upgraden van je monitor zou ik niet te veel waarde aan hechten. De DP1.2a standaard is nog maar kort final, daar zullen nog geen scalars voor zijn.
Er zijn geen nieuwe "scalers" nodig, er is alleen nieuwe software nodig. En waarom blijft iedereen verwijzen naar DP 1.2a als nieuwe standaard?

Adaptive Sync is als nieuwe optionele spec toegevoegd aan de al langer bestaande DP 1.2a specificatie. Dat betekent ook dat volgens VESA's eigen regels er géén nieuwe hardware nodig is. Nieuwe hardware (electrische specificaties dus) vereist een nieuwe versie. Dan had Adaptive Sync dus alleen in 1.3 terecht kunnen komen.
Dat is één van de nadelen van de aanpak van AMD. Het achteraf inbouwen van een nieuwe DisplayPort is minder triviaal dan het ondersteunen van G-Sync waardoor alleen de nieuwste generatie (minus rebrands) ondersteuning zal bieden voor FreeSync/Adaptive Sync.
Heh? Nvidia's ASIC is niet zomaar plug en play met elke monitor. En je verliest alle features van je monitor's eigen bord, wat bij de betere monitoren voor aardig wat kwaliteitsverlies zorgt.
Anoniem: 590917 schreef op donderdag 05 juni 2014 @ 11:29:
Als je toevallig systeem X hebt kun je ook niet gebruik maken van free sync omdat het op bepaalde CNG kaarten werkt, zelfe probleem alleen lijkt systeem Y open wat het nog niet is.
Ze hebben alle 2 hun voor en nadelen en ik berijp wel dat mensen openstandaarden willen maar om nvidia daar continu over te moeten bekritiseren leest niet lekker weg voor de lezer, het komt over alsof AMD god is en Nvidia de Duivel na 100 keer de zelfde kritiek er op, ik denk dan ook van we weten dat nu wel zo langzamerhand en om het zelfde dan 50.000 keer te herhalen word vervelend.
Beide hebben voor- en nadelen?

G-Sync:
- Vereist een $100 investing in Nvidia's hardware (of het nu al in de monitor zit of niet, die kosten draai jij voor op)
- Kan nooit en te nimmer werken op AMD, tenzij AMD Nvidia's spul gaat reverse engineeren.
- Zal niet gebruikt worden in de duurdere monitoren omdat het een vervanging van hun eigen, betere chips betekent.
- Zal dus ook nooit wijd verspreid raken

Adaptive Sync
- Vereist waarschijnlijk een nieuwe monitor omdat vrijwel niemand firmware updates doet voor hun monitors
+ Vereist GEEN nieuwe hardware in de monitor
+ Werkt op elke monitor en/of GPU die het ondersteunt
+ Komt hoogstwaarschijnlijk standaard in 1.3, wat betekent dat alle fabrikanten die zich achter DP hebben geschaard het zullen ondersteunen (Dell, Eizo, LG, Samsung, maar ook ASUS bijvoorbeeld)
+ En dat betekent ook dat Nvidia er niet omheen kan. DisplayPort zelf hebben ze ook aan toe moeten geven.


Ik kan serieus geen voordeel aan G-Sync bedenken, behalve dan de technologie zelf. Het is ook nog steeds niet te koop en ik betwijfel of er een product tussen gaat zitten dat ik z'n prijs waardig acht als er eindelijk iets op de markt komt (hint: dat ding van ASUS is het geld niet waard naar mijn mening).

Je kunt blijven zeggen dat je het niet leuk vindt hoe mensen Nvidia hierover bekritiseren, maar in plaats van dat gejank zou je wel eens een degelijk argument mogen aandragen. Geef nu eens één argument, slechts één, waarom G-Sync beter voor ons als consument zou kunnen zijn. Ééntje maar.

Acties:
  • 0 Henk 'm!

Anoniem: 590917

Ééntje dan, liever goed gejat dan slecht gebracht want daar heb ik moeite mee, kan het wel proberen maar dan begrijpt je het niet ben ik bang voor.
Bij FreeSync wordt er gegokt wanneer de volgende frame klaarstaat en zoals de mensen met een wiskunde achtergrond hier wellicht weten is de beste gok altijd het vorige resultaat. Dat betekent dus dat FreeSync heel goed werkt bij constante framerates (zoals een filmpje van een windmolen), maar niet goed werkt bij een game (waar de framerates vaak veel wisselen) en daar zelfs voor extra problemen kan zorgen.

G-Sync laat het scherm echter VBLANK vasthouden tot er een nieuwe frame door de GPU geleverd wordt. Daar komt dus geen gokken bij te pas en geeft ook een goed resultaat bij games.

[ Voor 4% gewijzigd door Anoniem: 590917 op 05-06-2014 13:27 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 09:02
De enige voordelen van gsync zijn dat het er eerder is en dat het lekker overkill is, met 2560x1440 op 144hz.

Grootste nadeel is dat die module zo duur is, en dat het alleen op gaming gefocust is. Je zal het idd niet in een monitor voor pro fotobewerking terugvinden.
Vendor lock in is ook een nadeel, maar amd en nvidia onlopen elkaar de laatste jaren nooit zo veel qua price/performance, lijkt me onwaarschijnlijk dat dat in de toekomst zal veranderen.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 21:55
Anoniem: 590917 schreef op donderdag 05 juni 2014 @ 13:25:
Ééntje dan, liever goed gejat dan slecht gebracht want daar heb ik moeite mee, kan het wel proberen maar dan begrijpt je het niet ben ik bang voor.


[...]
Toch mooi voor jou dan dat er Gsync schermen komen?

De meerderheid zit hier gewoon niet op te wachten.

Ik denk dat over 1/2 jaar AMD, Intel en nVidia Adaptive Vsync support hebben en dus "FreeSync". De tijd zal het leren.

Voor wat ik er mee ga doen is Freesync genoeg. 144hz heb ik niet nodig. Ik wil wel graag 4K en als het even kan iets meer dan 60Hz maar opzich is 60hz al meer dan voldoende voor wat ik er mee doe. Ik vind het vooral belangrijk dat het panneel goed is qua kleur reproductie en wil minimaal een 30" hebben. Dan zit je in een hele andere categorie te kijken. TN schermen met 144hz vallen dan sowieso al af.

Voor gamers is Gsync wel interessant. Maar als die ongeveer hetzelfde effect kunnen bereiken voor 100 euro minder denk ik dat veel mensen voor die 100 euro minder gaan. Ook hier weer tijd zal het leren.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10:46
Anoniem: 590917 schreef op donderdag 05 juni 2014 @ 13:25:
Ééntje dan, liever goed gejat dan slecht gebracht want daar heb ik moeite mee, kan het wel proberen maar dan begrijpt je het niet ben ik bang voor.
[...]
Waar die quote vandaan komt weet ik niet, maar ik vind het knap dat die persoon dat weet, aangezien er nog met geen woord is gerept over hoe FreeSync werkt en er nog niemand een 1:1 vergelijking heeft kunnen maken. Waarschijnlijk heeft die persoon zich echter op eDP gebaseerd, waar het inderdaad niet op dezelfde manier gaat als bij G-Sync.

Wat Adaptive Sync betreft, daar zit VBLANK control wel gewoon in, naast alles wat in eDP zit. Dus daar ligt het niet aan, dat is hetzelfde als bij G-Sync; wellicht dat AMD's FreeSync tot nog toe alleen de eDP protocols gebruikt, maar dat weet niemand. Dit moet iedereen ook gaan onthouden; Adaptive Sync en FreeSync zijn verschillende producten. En zoals ik al eerder heb gezegd zou ik er niet raar van opkijken als Nvidia G-Sync gewoon compatible met Adaptive Sync maakt. Dat is technisch gezien mogelijk en het zou G-Sync op hetzelfde niveau halen.
haarbal schreef op donderdag 05 juni 2014 @ 13:27:
De enige voordelen van gsync zijn dat het er eerder is en dat het lekker overkill is, met 2560x1440 op 144hz.

Grootste nadeel is dat die module zo duur is, en dat het alleen op gaming gefocust is. Je zal het idd niet in een monitor voor pro fotobewerking terugvinden.
Vendor lock in is ook een nadeel, maar amd en nvidia onlopen elkaar de laatste jaren nooit zo veel qua price/performance, lijkt me onwaarschijnlijk dat dat in de toekomst zal veranderen.
Heeft niets met foto bewerking te maken. Ik zit al jaren op IPS monitors (en nu op VA met 120 Hz). Ik vind TN panelen afgrijselijk om naar te kijken en laat de meeste monitors nu juist TN zijn ;)

En Adaptive Sync kan ook gewoon 1440p144 doen hoor :)

Acties:
  • 0 Henk 'm!

Anoniem: 590917

Als ik het allemaal zo lees denk ik dat ik toch maar wat minder moet klagen over wat anderen er van vinden, waar die frustratie weg komt weet ik ook niet goed, denk dat ik mezelf aangevallen voel door dat ik zelf tevreden ben over mijn eigen Nvidia kaart.

[ Voor 40% gewijzigd door Anoniem: 590917 op 05-06-2014 14:02 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10:46
Daar is ook niks mis mee, ik ben ook tevreden over hoe m'n Nvidia kaart draait.

Ik ben alleen niet tevreden over hun irritante bedrijfspraktijken, die mij als consument gewoon niet ten goede komen. Niemand hoeft zich aangevallen te voelen als het om AMD en Nvidia gaat, het is toch niet zo alsof je er zelf bij betrokken bent? ;)

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 09:02
Werelds schreef op donderdag 05 juni 2014 @ 13:47:
Heeft niets met foto bewerking te maken. Ik zit al jaren op IPS monitors (en nu op VA met 120 Hz). Ik vind TN panelen afgrijselijk om naar te kijken en laat de meeste monitors nu juist TN zijn ;)

En Adaptive Sync kan ook gewoon 1440p144 doen hoor :)
Ik kan leven met TN :). En adaptive sync is alleen maar een spec, dus ja, natuurlijk kan het, alleen moet de hardware er eerst nog komen.

voorlopig is er alleen maar een demo met een constante ~48 fps en een spec waar de monitorfabrikanten mee aan de slag kunnen, als ze willen.

Een 1440 va eizo met adaptive sync en strobing zou leuk zijn, wss ook 1000,- :P

[ Voor 5% gewijzigd door haarbal op 05-06-2014 15:51 ]

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
ik ben ook niet zo zeer pro amd alsmeer anti nvidia en anti intel maar ja ik ben dan ook een halve punker en kan niet zo goed tegen misbruik maken van de al niet geweldige kapitalistische systeem zoals wij dat hebben.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 09:02
mjah, nvidia heeft soms vervelende streken, zoals gpu physx blokken als je niet op een nvidia kaart rendert, ook al heb je wel een nvidia kaart in je systeem zitten.

maar goed, amd is nu ook leuk bezig met mantle, true audio, en dan van de daken schreeuwen hoe verschrikkelijk gameworks wel niet is.

gelukkig is de xbox one zo traag, kan ik m'n gpu upgrades blijven uitstellen tot adaptive sync er is en gsync in prijs gedaald is.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

haarbal schreef op donderdag 05 juni 2014 @ 17:29:
mjah, nvidia heeft soms vervelende streken, zoals gpu physx blokken als je niet op een nvidia kaart rendert, ook al heb je wel een nvidia kaart in je systeem zitten.
Dat is echt stom inderdaad : Als ze daar nou niet moeilijk over deden dan had ik al lang een nVidia kaart naast mijn ATI kaarten voor Physx :)

Maar goed... dan verdienen ze maar geen geld aan mij en geef ik een heel klein gedeelte daarvan uit aan een GT 630 voor mijn HTPC :+
maar goed, amd is nu ook leuk bezig met mantle, true audio, en dan van de daken schreeuwen hoe verschrikkelijk gameworks wel niet is.
Mja, valt wel mee allemaal sinds het open standaarden zouden moeten zijn, maar waarom werken die open standaarden dan niet met hun eigen videokaarten die door de huidige driver ondersteund worden en dus blijkbaar nieuw genoeg zijn om support te krijgen ?!

Nee, alleen de nieuwste videokaarten die geen rebrand zijn + de kaarten van de concurrent indien ze interesse hebben... logisch! 8)7

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 11-05 22:49
Dat is toch helemaal niet vreemd? Die kaarten hebben de hardware er niet voor aan boord..
Nvidia is vrij om deze hardware in te bouwen en vervolgens gebruik te maken van True audio, dat is het hele idee.

Acties:
  • 0 Henk 'm!

Anoniem: 100386

enchion schreef op donderdag 05 juni 2014 @ 11:40:
[...]


Ik heb een screeny gevonden met meer info, op http://www.3dnews.ru/tags/murdered%3A%20soul%20suspect

[afbeelding]

Helaas kan ik dit niet zichtbaar krijgen, en ook jammer dat het niet gewoon onder de scherm opties valt maar uitsluitend voor video is.
Thx,

Maar ik was meer benieuwd naar deze settings, en of we als consument nu eindelijk eens zelf gebruik hiervan kunnen maken ... :

Afbeeldingslocatie: http://tweakers.net/ext/f/RI713MLnSSKhY8uYy92ipCPJ/full.jpg

[ Voor 6% gewijzigd door Anoniem: 100386 op 05-06-2014 23:09 ]


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

spNk schreef op donderdag 05 juni 2014 @ 22:09:
Dat is toch helemaal niet vreemd? Die kaarten hebben de hardware er niet voor aan boord..
Nvidia is vrij om deze hardware in te bouwen en vervolgens gebruik te maken van True audio, dat is het hele idee.
Ik geloof er niks van dat FreeSync en Mantle, maar vooral FreeSync niet op een 5xxx of 6xxx videokaart van ATI/AMD werkt : Dat is gewoon luiheid of expres via de drivers/software oudere kaarten buiten spel zetten :/

TrueAudio geloof ik wel en heb ik eigenlijk ook geen behoefte aan net als TXAA en HBAO+ van nVidia bijvoorbeeld, want dat zijn dingen waar ik toch geen gebruik van zal maken :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Lambo LP670 SV
  • Registratie: Oktober 2009
  • Laatst online: 14:11
http://be.hardware.info/n...gt-tahiti-op-in-september

Nog een laatste keer op 28 nm met zowel betere prestaties als een lager verbruik + zowel een desktop als mobiele versie ervan. Verwacht in september volgens de geruchten :)

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10:46
haarbal schreef op donderdag 05 juni 2014 @ 15:50:
Een 1440 va eizo met adaptive sync en strobing zou leuk zijn, wss ook 1000,- :P
Strobing + variabele refresh rate is lastig. Strobing is namelijk gebouwd op die vaste refresh rate, zodat de strobe dat met een factor X vermenigvuldigd is.

Waar ik wel weet dat in elk geval twee fabrikanten mee aan het experimenteren zijn, is een soortgelijk principe. Strobing dient vooral om ghosting tegen te gaan; in plaats van dit op vaste intervals te doen, zijn ze nu aan het spelen met het idee van een tweede backlight flits vlak na een refresh in plaats van tussen twee refreshes in. Dus in plaats van elke 8ms (60 Hz + strobe) of 4ms (120 Hz) of 3.5ms (144 Hz), standaard X ms na een refresh. Tot nog toe werkt dat wel, maar is het minder prettig om naar te kijken. Onze hersenen hebben blijkbaar toch liever die regelmaat :)
nero355 schreef op vrijdag 06 juni 2014 @ 01:41:
Ik geloof er niks van dat FreeSync en Mantle, maar vooral FreeSync niet op een 5xxx of 6xxx videokaart van ATI/AMD werkt : Dat is gewoon luiheid of expres via de drivers/software oudere kaarten buiten spel zetten :/
Niet helemaal. Een 58xx heeft slechts DP 1.1 dus dat is technisch gezien simpelweg niet mogelijk. Zoals ik eerder al zei, betekent het feit dat 1.2 een versie hoger is dat het dus ook een andere elektrische specificatie betreft (nieuwe hardware, andere hardware) en het dus niet compatible is. Daar zit dus geen luiheid of software-cockblock in.

Hetzelfde geldt voor Fermi, die zijn ook slechts DP 1.1. Nvidia gebruikt ook gewoon dezelfde onderdelen van de 1.2 spec voor G-Sync, dus hebben ook zij DP 1.2 nodig. Dat betekent Kepler of Maxwell.

Een 69xx zou op papier wel kunnen aangezien die wel 1.2 aan boord hebben.

Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Anoniem: 100386 schreef op donderdag 05 juni 2014 @ 23:08:
[...]


Thx,

Maar ik was meer benieuwd naar deze settings, en of we als consument nu eindelijk eens zelf gebruik hiervan kunnen maken ... :

[afbeelding]
Die kan ik wel zien alleen kan ik dat niet aanvinken/activeren omdat mijn scherm daar niet voor geschikt is.

btw echt niemand die iets kan zeggen over de Hue en Boost settings, ik krijg gewoon heel het Advanced tabblad niet, ook niet blanked. ???

Ik ben echt benieuwd naar wat er met die functie mogelijk is nl, misschien daarna handig om in SweetFX te hebben ofzo.

Liever hier antwoord op dan nog meer speculatieve posts over nVidia-G versus AMD-F aub. :)

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16

Sp3ci3s8472

@ 12 graden...

enchion schreef op vrijdag 06 juni 2014 @ 14:52:
[...]


Die kan ik wel zien alleen kan ik dat niet aanvinken/activeren omdat mijn scherm daar niet voor geschikt is.

btw echt niemand die iets kan zeggen over de Hue en Boost settings, ik krijg gewoon heel het Advanced tabblad niet, ook niet blanked. ???

Ik ben echt benieuwd naar wat er met die functie mogelijk is nl, misschien daarna handig om in SweetFX te hebben ofzo.

Liever hier antwoord op dan nog meer speculatieve posts over nVidia-G versus AMD-F aub. :)
Het enige wat die funtie zou doen is ervoor zorgen dat als je een 10bit paneel hebt dat je daar ook gebruik van kan maken met films indien die ook 10bits zijn. In feite geeft het een hogere dynamic range en je hebt minder banding met kleuren.
Voor mensen die veel met photoshop werken is bijv een 10bits paneel een goed iets denk ik :P.

Lees ook:
http://daredreamermag.com...erstanding-8bit-vs-10bit/
http://www.tftcentral.co....tent/ips_technologies.htm
http://www.tftcentral.co.uk/articles/content/6bit_8bit.htm

Ik denk dat het voor normale gebruikers niet heel interessant is.
Volgens mij zijn de meeste tn panelen 6+2 ofzo en dat ze doormiddel van dithering die +2 verkrijgen, in plaats van dat het echte 8bit panelen zijn.

Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Sp3ci3s8472 schreef op vrijdag 06 juni 2014 @ 15:16:
[...]


Het enige wat die funtie zou doen is ervoor zorgen dat als je een 10bit paneel hebt dat je daar ook gebruik van kan maken met films indien die ook 10bits zijn. In feite geeft het een hogere dynamic range en je hebt minder banding met kleuren.
Voor mensen die veel met photoshop werken is bijv een 10bits paneel een goed iets denk ik :P.

Lees ook:
http://daredreamermag.com...erstanding-8bit-vs-10bit/
http://www.tftcentral.co....tent/ips_technologies.htm
http://www.tftcentral.co.uk/articles/content/6bit_8bit.htm

Ik denk dat het voor normale gebruikers niet heel interessant is.
Volgens mij zijn de meeste tn panelen 6+2 ofzo en dat ze doormiddel van dithering die +2 verkrijgen, in plaats van dat het echte 8bit panelen zijn.
Thanks maar die over 8 versus 10bit wist ik al.

Ik had het over de functie bescreven in deze post, die over Hue en Boost.
enchion in "CJ's Radeon Info & Nieuwsdiscussie - Deel 127"

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16

Sp3ci3s8472

@ 12 graden...

enchion schreef op vrijdag 06 juni 2014 @ 15:30:
[...]


Thanks maar die over 8 versus 10bit wist ik al.

Ik had het over de functie bescreven in deze post, die over Hue en Boost.
enchion in "CJ's Radeon Info & Nieuwsdiscussie - Deel 127"
Inderdaad kwam erachter nadat ik mijn post had geplaast :P, begrijpend lezen (of niet slapend lezen) is ook een kunst.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 11-05 22:49
nero355 schreef op vrijdag 06 juni 2014 @ 01:41:
[...]

Ik geloof er niks van dat FreeSync en Mantle, maar vooral FreeSync niet op een 5xxx of 6xxx videokaart van ATI/AMD werkt : Dat is gewoon luiheid of expres via de drivers/software oudere kaarten buiten spel zetten :/

TrueAudio geloof ik wel en heb ik eigenlijk ook geen behoefte aan net als TXAA en HBAO+ van nVidia bijvoorbeeld, want dat zijn dingen waar ik toch geen gebruik van zal maken :)
Sorry, ik had het eigenlijk enkel over true audio.
Mantle met een juiste driver moet op alle kaarten die OpenCL ondersteunen in theorie kunnen werken volgens mij. AMD is ook niet gek overigens, het kost veel tijd om dit ook naar oudere series te brengen,
en het driver team heeft volgens mij zijn handen al vol aan enkel nieuwe drivers uitbrengen.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 09:02
Werelds schreef op vrijdag 06 juni 2014 @ 12:00:
Strobing + variabele refresh rate is lastig. Strobing is namelijk gebouwd op die vaste refresh rate, zodat de strobe dat met een factor X vermenigvuldigd is.

Waar ik wel weet dat in elk geval twee fabrikanten mee aan het experimenteren zijn, is een soortgelijk principe. Strobing dient vooral om ghosting tegen te gaan; in plaats van dit op vaste intervals te doen, zijn ze nu aan het spelen met het idee van een tweede backlight flits vlak na een refresh in plaats van tussen twee refreshes in. Dus in plaats van elke 8ms (60 Hz + strobe) of 4ms (120 Hz) of 3.5ms (144 Hz), standaard X ms na een refresh. Tot nog toe werkt dat wel, maar is het minder prettig om naar te kijken. Onze hersenen hebben blijkbaar toch liever die regelmaat :)
Mjah, misschien een lastig probleem, dat aan de ene kant je scherm maar net snel genoeg is om op 120hz regelmatig te kunnen stroben zonder dat je de refresh ziet, dat je waarschijnlijk niet onder de 85 a 100hz wil stroben, en dat je door het stroben misschien weer de problemen introduceert die je met variabele refresh probeert tegen te gaan.

tijd voor 400 Hz oleds :P

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

OLED is toch sowieso super snel net als CRT en Plasma dus dat hele Hz is niet van toepassing :?

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10:46
nero355 schreef op zaterdag 07 juni 2014 @ 21:10:
OLED is toch sowieso super snel net als CRT en Plasma dus dat hele Hz is niet van toepassing :?
Jawel hoor. Ik zal er niet te diep op in gaan omdat ik dan wederom off-topic ga over monitoren, maar even kort:

Belangrijkste is dat _al_ deze monitors een refresh rate hebben op de een of andere manier. Bij CRT is dat hoe vaak het scherm gescand wordt (hele beeld opnieuw getekend, dat zie je in opnames als die lijn die vertical over het scherm beweegt). Bij LCD is dat hoe vaak de backlight -ongeacht of dit nu CCFL of LED is- flitst. Bij Plasma zit dat in de stroomstoten. Bij OLED is dat (kort samen gevat) gelijk aan de respons tijd per pixel (anders dan bij alle andere monitors).

Niet elke OLED is gelijk aan elke andere ;)

Acties:
  • 0 Henk 'm!

Anoniem: 59888

Werelds schreef op donderdag 05 juni 2014 @ 13:11:
[...]

Er zijn geen nieuwe "scalers" nodig, er is alleen nieuwe software nodig. En waarom blijft iedereen verwijzen naar DP 1.2a als nieuwe standaard?

Adaptive Sync is als nieuwe optionele spec toegevoegd aan de al langer bestaande DP 1.2a specificatie. Dat betekent ook dat volgens VESA's eigen regels er géén nieuwe hardware nodig is. Nieuwe hardware (electrische specificaties dus) vereist een nieuwe versie. Dan had Adaptive Sync dus alleen in 1.3 terecht kunnen komen.
Ah juist, dank voor de correctie. Ik moet me echt eens meer verdiepen in die materie voor ik er dit soort uitspraken over ga doen, dat werkt niet. :X
Werelds schreef op donderdag 05 juni 2014 @ 13:11:
[...]

Heh? Nvidia's ASIC is niet zomaar plug en play met elke monitor. En je verliest alle features van je monitor's eigen bord, wat bij de betere monitoren voor aardig wat kwaliteitsverlies zorgt.
Dat is een misverstand, ik doelde op wat er aan de kant van de graka gebeurt, niet aan de kant van de monitor. Maar goed, dat was weer voortboordurend op het hele DP1.2a verhaal wat niet klopt, dus dat kan daarmee dan ook de prullenbak in.

nero355 schreef op donderdag 05 juni 2014 @ 19:32:
[...]

Mja, valt wel mee allemaal sinds het open standaarden zouden moeten zijn, maar waarom werken die open standaarden dan niet met hun eigen videokaarten die door de huidige driver ondersteund worden en dus blijkbaar nieuw genoeg zijn om support te krijgen ?!

Nee, alleen de nieuwste videokaarten die geen rebrand zijn + de kaarten van de concurrent indien ze interesse hebben... logisch! 8)7
Dat klopt niet helemaal. Mantle ondersteunt alleen GCN kaarten. Buiten de boot vallen de R5 kaarten van deze generatie, en 76xx en lager van de vorige generatie. Alle andere kaarten uit die twee generaties worden wèl ondersteund. In de praktijk betekent dat, dat alleen low-end kaarten en kaarten van twee generaties geleden (2010!) en ouder niet ondersteund worden. Gratis nieuwe features voor je bestaande kaart is natuurlijk leuk, maar dat houdt een keer op. Vergeet ook niet dat Mantle nog niet af is, en tegen de tijd dat het uit de beta-fase komt er al wel eens een nieuwe generatie kaarten in de winkels zou kunnen liggen.

Kijk, als die oudere kaarten Mantle-games nou helemaal niet zouden kunnen draaien had je een punt gehad, maar dat is niet het geval. Games zullen DirectX echt niet zomaar overboord gooien, dus voorlopig kun je op die oude kaarten ook gewoon nog blijven gamen. Je kunt niet mee in de Mantle-performance-boost, maar dat je met een oude of low-end kaart dingen misloopt is nooit anders geweest, en wat mij betreft geen probleem. Een PC moet je nu eenmaal af en toe upgraden, als je hardware wil die heel lang meegaat kun je beter je een console kopen, niet al te lang na de launch. Daar krijg je dan wel lage resoluties en framerate voor, en dat zal er in de loop der jaren niet beter op worden. ;)

[ Voor 3% gewijzigd door Anoniem: 59888 op 08-06-2014 05:35 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10:46
Anoniem: 59888 schreef op zondag 08 juni 2014 @ 05:32:
Ah juist, dank voor de correctie. Ik moet me echt eens meer verdiepen in die materie voor ik er dit soort uitspraken over ga doen, dat werkt niet. :X
Hoeft niet hoor, doet 75% van alle "tech" sites ook niet :+
Dat klopt niet helemaal. Mantle ondersteunt alleen GCN kaarten.
Ook dat statement klopt niet helemaal. Mantle ondersteunt helemaal niets, if you catch my drift ;)

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Het is inderdaad zo dat de huidige drivers Mantle ondersteunen voor de GCN kaarten, maar uiteindelijk kunnen Intel en Nvidia ook drivers voor Mantle schrijven.

Acties:
  • 0 Henk 'm!

Anoniem: 590917

Phuncz schreef op zondag 08 juni 2014 @ 16:28:
Het is inderdaad zo dat de huidige drivers Mantle ondersteunen voor de GCN kaarten, maar uiteindelijk kunnen Intel en Nvidia ook drivers voor Mantle schrijven.
Ik vraag me af of dat nog wel nodig door de komst van dx12 omdat tot dan nog niet genoeg games Mantle hebben, en om daar nu extra werk in te moeten steken lijkt me dat niet handig voor een bedrijf als Intel want het kost weer tijd en geld + ze doen het maar voor een paar games en erna heeft het geen zin meer omdat dx12 er is die het zelfde kan want Mantle ook kan als MS dat waar kan maken.

http://www.developer-tech...arket-getting-bit-mental/

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Dunno of het nodig is, we zullen eerst DX12 moeten afwachten of het ook wat oplevert.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10:46
Anoniem: 590917 schreef op zondag 08 juni 2014 @ 16:59:
[...]

Ik vraag me af of dat nog wel nodig door de komst van dx12 omdat tot dan nog niet genoeg games Mantle hebben, en om daar nu extra werk in te moeten steken lijkt me dat niet handig voor een bedrijf als Intel want het kost weer tijd en geld + ze doen het maar voor een paar games en erna heeft het geen zin meer omdat dx12 er is die het zelfde kan want Mantle ook kan als MS dat waar kan maken.

http://www.developer-tech...arket-getting-bit-mental/
Voor Windows zal Mantle waarschijnlijk gewoon het onderspit delven tegenover DX12, als MS inderdaad hetzelfde voor elkaar krijgt als AMD.

AMD wil Mantle echter ook buiten Windows beschikbaar maken en dan is het een ander verhaal. Hoewel OpenGL veel kan bewerkstelligen, is het ook op z'n zachts gezegd een hel om dat te doen. Je moet dan expliciet de extensies van Nvidia, AMD en Intel gebruiken. Als ze Mantle op Linux en OS X aan het draaien krijgen kan het wel eens een ander verhaal worden. Hangt het wel nog steeds af van of in elk geval Intel mee wil werken; Apple krijgen ze dan wel om. Apple is niet gebonden aan Nvidia ondanks het feit dat ze momenteel vooral Nvidia aanbieden; OS X draait op OpenCL, waar zowel Intel als AMD harder aan werken dan Nvidia ooit zal doen. Als AMD daar nu keihard aan werkt zou dat wel eens een stevige impact op de gaming markt kunnen hebben; shaders die poep eenvoudig te porten zijn, een API die sterk op de bestaande low level API's lijkt. Dat zou Linux en OS X ineens serieus boeiend kunnen maken om games op te draaien.

[ Voor 9% gewijzigd door Werelds op 08-06-2014 21:32 ]


Acties:
  • 0 Henk 'm!

Anoniem: 59888

Wat mij betreft is het idee dat ome Microsoft het allemaal wel eventjes voor elkaar krijgt nogal optimistisch. Laten we niet vergeten dat ze de afgelopen vijf jaar diverse beloften over PC gaming gedaan hebben, waarvan geen enkele waarheid is geworden. Dat wil niet zeggen dat dat deze keer ook zo zal zijn, maar ze hebben de schijn flink tegen. Wat mij betreft dus zeker een kwestie van: eerst zien, dan geloven.

Daar komt bij dat het overduidelijk is dat Microsoft voor wat betreft gaming primair een console-fabrikant is, en pas daarna interesse heeft in PC gaming. Microsoft zou voor Windows 9 de store kunnen verplichten, waarbij het alleen nog maar mogelijk is om programma's via de Windows Store te installeren, waarmee Microsoft gaat bepalen welke software er op Windows uitkomt, en wanneer. Vergelijkbaar met de positie van Apple op iOS.

Dat zou betekenen dat een console-fabrikant absolute zeggenschap krijgt over PC gaming, en het een koud kunstje zou zijn om PC gaming de nek om te draaien of in elk geval alle cross-platform games later uit te laten komen op de PC. Of Microsoft dat daadwerkelijk zou doen of niet is eigenlijk niet zo relevant, het laat zien dat het heel ongezond is voor de PC gaming industrie om zo afhankelijk te zijn van Microsoft, en dat weten ze. Dat is de reden dat Valve met SteamOS en Steam Machines komt, dat alle grote game engines nu ook linux ondersteunen en er meer en meer games naast Windows ook op Linux en Mac uit komen.

Zelfs als DX12 alle beloften waar maakt is het maar de vraag in hoeverre de industrie nog wel op een Windows-exclusieve API van Microsoft zit te wachten. Dat klinkt nogal onwaarschijnlijk, maar als je me twee jaar geleden had verteld dat in 2014 alle grote game engines Linux ondersteunen had ik je ook voor gek verklaard. Stiekem is er best e.e.a. gaande wat dat betreft, en dingen die ooit onmogelijk leken zijn dat ineens niet meer. Misschien ben ik wat optimistisch, maar ik zou er persoonlijk geen geld op inzetten dat Windows over vijf jaar nog steeds het dominante gaming-OS op de PC is.

Werelds schreef op zondag 08 juni 2014 @ 14:49:
[...]

Ook dat statement klopt niet helemaal. Mantle ondersteunt helemaal niets, if you catch my drift ;)
Mja da's een kwestie van drivers idd, maar "driverondersteuning voor Mantle op een oude GPU architectuur" bekt zo onhandig. :-( ;)

[ Voor 7% gewijzigd door Anoniem: 59888 op 09-06-2014 00:46 ]


Acties:
  • 0 Henk 'm!
Voor Windows 9 de store gaan verplichten voor alle software gaan ze nooit doen, daar zou zoveel kritiek op komen. Dat zou betekenen dat niemand ooit ook maar naar Win9 zou overstappen. Microsoft krabbelt zelf nu ook wat terug met 8.1 en nog wat meer met Update 1, zijn zelf erg sterke geruchten voor het terug komen van het startmenu. Never nooit niet dat ze bij Win9 dus de store verplicht stellen, dat zou het begin van het einde van Windows zijn lijkt mij.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16

Sp3ci3s8472

@ 12 graden...

Werelds schreef op zondag 08 juni 2014 @ 21:30:
[...]

Voor Windows zal Mantle waarschijnlijk gewoon het onderspit delven tegenover DX12, als MS inderdaad hetzelfde voor elkaar krijgt als AMD.
Dat zou best kunnen maar dat gaat ze niet lukken als ze het alleen in Windows 9 of 8 stoppen. Van alle mensen in mijn directe omgeving is niemand overgestapt op Windows 8, die zijn allemaal tevreden met xp of 7 :p.

Acties:
  • 0 Henk 'm!

Anoniem: 59888

-The_Mask- schreef op maandag 09 juni 2014 @ 01:16:
Voor Windows 9 de store gaan verplichten voor alle software gaan ze nooit doen, daar zou zoveel kritiek op komen. Dat zou betekenen dat niemand ooit ook maar naar Win9 zou overstappen. Microsoft krabbelt zelf nu ook wat terug met 8.1 en nog wat meer met Update 1, zijn zelf erg sterke geruchten voor het terug komen van het startmenu. Never nooit niet dat ze bij Win9 dus de store verplicht stellen, dat zou het begin van het einde van Windows zijn lijkt mij.
In één klap is te snel inderdaad, maar onmogelijk is het niet. Dan voeren ze gewoon een of ander "Certified for Windows" programma in waarvoor Windows Store verplicht is, zodat je bij alle andere installers een mooi waarschuwingsscherm krijgt. Voor Windows 10 huren ze dan één of ander onderzoeksbureau in dat een onderzoek produceert waaruit blijkt dat 95% van alle software via de Windows Store wordt geïnstalleerd en gebruikers heel tevreden zijn, en wordt de ondersteuning voor het installeren van software buiten het geëikte distributiekanaal "stopgezet".

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Dat lijkt me inderdaad geen onrealistisch scenario, Win 8 lijkt ons ook de strot ingeduwd, alsof het hele non-touch werken met PC's al gedaan was. Microsoft heeft al vaak van dit soort fratsen gedaan en het zou ze zeker lukken de store "semi-verplicht" te maken. Ik zie ze bv. een sandbox mode opzetten voor non-store apps die geen toegang hebben tot alle API's of iets dergelijks. Het zou hun probleem van virussen zeer hard aanpakken en de mensen datzelfde warme, veilige gevoel van de App Store (Apple) geven.

Daarom kijk ik ook niet lonkend uit naar DX12, het beperkt de mogelijkheden voor later. Ik wil SteamOS zien slagen, ik wil MacOS games zien verkopen, zodat de consument keuze heeft en de development studios ook niet verplicht worden voor één of twee financieel aantrekkelijke platformen te ontwikkelen.

Acties:
  • 0 Henk 'm!

Anoniem: 590917

Werelds schreef op zondag 08 juni 2014 @ 21:30:
[...]

Voor Windows zal Mantle waarschijnlijk gewoon het onderspit delven tegenover DX12, als MS inderdaad hetzelfde voor elkaar krijgt als AMD.

AMD wil Mantle echter ook buiten Windows beschikbaar maken en dan is het een ander verhaal. Hoewel OpenGL veel kan bewerkstelligen, is het ook op z'n zachts gezegd een hel om dat te doen. Je moet dan expliciet de extensies van Nvidia, AMD en Intel gebruiken. Als ze Mantle op Linux en OS X aan het draaien krijgen kan het wel eens een ander verhaal worden. Hangt het wel nog steeds af van of in elk geval Intel mee wil werken; Apple krijgen ze dan wel om. Apple is niet gebonden aan Nvidia ondanks het feit dat ze momenteel vooral Nvidia aanbieden; OS X draait op OpenCL, waar zowel Intel als AMD harder aan werken dan Nvidia ooit zal doen. Als AMD daar nu keihard aan werkt zou dat wel eens een stevige impact op de gaming markt kunnen hebben; shaders die poep eenvoudig te porten zijn, een API die sterk op de bestaande low level API's lijkt. Dat zou Linux en OS X ineens serieus boeiend kunnen maken om games op te draaien.
Dus er is nog wel toekomst voor Mantle, dat is mooi want anders was het voor niets geweest en dat is zonde van al die tijd die er in is gestoken. Ik zie wel vaker dat games OGL API gebruiken vanwege Linux en moet zeggen dat die game vrijwel direct goed draaien op Windows en dat zal misschien op Linux nog wel beter werken? Maar goed ik blijf bij windows omdat windows de hoofdaanbieder is van de meeste games en ik verwacht dat daar geen verandering in komt de komende jaren en gezien het percentage wat windows gebruiker is en dat veranderd niet even in 2 jaar tijd naar een ander OS

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 09:02
Als ik zoek naar mantle voor linux vind ik alleen berichten dat amd het overweegt maar dat het onwaarschijnlijk is.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10:46
Anoniem: 59888 schreef op maandag 09 juni 2014 @ 00:43:
Misschien ben ik wat optimistisch, maar ik zou er persoonlijk geen geld op inzetten dat Windows over vijf jaar nog steeds het dominante gaming-OS op de PC is.
Daar ben ik het met je eens. Apple wil het wel, Linux (en dan met name Ubuntu) heeft nu Valve achter zich. Gooi daar het feit bij dat to-the-metal weer hip is en we zullen inderdaad wat verschuivingen zien. Neemt niet weg dat MS gewoon de dominante partij is op de PC. Dat ze het met hun console afleggen tegen Sony doet daar niets aan af.
Mja da's een kwestie van drivers idd, maar "driverondersteuning voor Mantle op een oude GPU architectuur" bekt zo onhandig. :-( ;)
Duh :P
Sp3ci3s8472 schreef op maandag 09 juni 2014 @ 01:22:
Dat zou best kunnen maar dat gaat ze niet lukken als ze het alleen in Windows 9 of 8 stoppen. Van alle mensen in mijn directe omgeving is niemand overgestapt op Windows 8, die zijn allemaal tevreden met xp of 7 :p.
Dat komt ook doordat Windows 8 een belachelijke interface heeft. Als ze dat met Windows 9 gewoon weer terug draaien boeit het de meeste gamers geen reet. En met name in de VS hebben ze dat extra stukje marketing tussen de Xbox One en de PC; ik verwacht dat MS daar nog meer mee gaat doen. "Microsoft in your home".
Anoniem: 590917 schreef op maandag 09 juni 2014 @ 09:15:
Dus er is nog wel toekomst voor Mantle, dat is mooi want anders was het voor niets geweest en dat is zonde van al die tijd die er in is gestoken. Ik zie wel vaker dat games OGL API gebruiken vanwege Linux en moet zeggen dat die game vrijwel direct goed draaien op Windows en dat zal misschien op Linux nog wel beter werken? Maar goed ik blijf bij windows omdat windows de hoofdaanbieder is van de meeste games en ik verwacht dat daar geen verandering in komt de komende jaren en gezien het percentage wat windows gebruiker is en dat veranderd niet even in 2 jaar tijd naar een ander OS
OGL wordt eigenlijk nog maar weinig ondersteund en de meeste OGL games zijn ook niet helemaal bijtijds meer. Kijk maar naar Wolfenstein: The New Order. Geweldige game, maar op technisch vlak zit dat nog in 2006 (net als Rage overigens). Je ziet ook dat ze allerlei hacks hebben uit gehaald om te doen wat ze wilden doen, waardoor het er niet alleen ondermaats uit ziet, maar ook nog eens ondermaats presteert.

Het probleem met OGL op de desktop is dat de Khronos groep te traag is met wijzigingen; ze hobbelen met veel features achter MS aan. En dat komt op zijn beurt weer doordat de Khronos groep partijen heeft die er eigenlijk geen reet over te zeggen zouden moeten hebben. Daarom maakt Mantle ook meer kans. Daar zit een GPU fabrikant achter die advies in wint van game developers. Meer is niet nodig. Ik zou heel graag een alliantie tussen Nvidia en AMD op dat gebied zien, maar dat gebeurt pas als pasen en pinksteren op één dag vallen ;)
haarbal schreef op maandag 09 juni 2014 @ 09:47:
Als ik zoek naar mantle voor linux vind ik alleen berichten dat amd het overweegt maar dat het onwaarschijnlijk is.
Op korte termijn wel ja. AMD heeft echter meer dan eens aangegeven dat ze de API wel naar andere platforms willen brengen, het is nu alleen niet zinnig omdat de API eerst volwassen moet worden. En dat kan nu eenmaal het beste op het #1 platform.

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Anoniem: 59888 schreef op maandag 09 juni 2014 @ 00:43:
Wat mij betreft is het idee dat ome Microsoft het allemaal wel eventjes voor elkaar krijgt nogal optimistisch.
Gezien de schaalgroote verwacht ik dat MS (als het het echt zou willen) gecomineerd met Nvidia allang een DX12 op de markt had kunnen brengen die de vloer aanveegt met Mantle. Is meer de vraag hoe hoog het op het prioriteiten lijstje staat en dus wanneer we het kunnen verwachten. MS kan er namelijk makkelijk een paar miljard op stuk slaan om het proces te versnellen.
(als het prio 1 had, boven xbone, WP en W8.1/W9 was het er allang geweest).

Wat betreft de Windows hegemonie voor gaming. Die gaat nog jaren aanhouden al was het alleen maar vanwege de backwards compatibility die Linux en OSX missen waardoor gelijk >90% van de games niet werkt. Linux heeft nog een lange weg te gaan (hoewel ik hoop ooit zonder windows te kunnen) want van mijn >300 games zijn volgens mij alleen de games van Valve de Triple A games die op Linux werken.

[ Voor 30% gewijzigd door eL_Jay op 09-06-2014 10:29 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16

Sp3ci3s8472

@ 12 graden...

Werelds schreef op maandag 09 juni 2014 @ 10:18:
[...]

Dat komt ook doordat Windows 8 een belachelijke interface heeft. Als ze dat met Windows 9 gewoon weer terug draaien boeit het de meeste gamers geen reet. En met name in de VS hebben ze dat extra stukje marketing tussen de Xbox One en de PC; ik verwacht dat MS daar nog meer mee gaat doen. "Microsoft in your home".
Inderdaad, als het dezelfde interface had gehad was ik misschien overgestapt. Maar zolang het eruitziet alsof het voor een tablet is ontworpen en je steeds naar die andere interface terugmoet ga ik niet over.
Met elke muis is het mogelijk om binnen 5 pixels ergens op te klikken, daar heb je geen barst aan die grote tegels.
eL_Jay schreef op maandag 09 juni 2014 @ 10:23:
[...]

Gezien de schaalgroote verwacht ik dat MS (als het het echt zou willen) gecomineerd met Nvidia allang een DX12 op de markt had kunnen brengen die de vloer aanveegt met Mantle. Is meer de vraag hoe hoog het op het prioriteiten lijstje staat en dus wanneer we het kunnen verwachten. MS kan er namelijk makkelijk een paar miljard op stuk slaan om het proces te versnellen.
(als het prio 1 had, boven xbone, WP en W8.1/W9 was het er allang geweest).
Lijkt mij trouwens een uitermate domme actie om met maar 1 fabrikant DX12 te ontwikkelen, als dat niet zuiver gebeurt dan zou het me niet verbazen dat AMD DX12 support op een laag pitje zet en inzet op Mantle. Vraag me ook af hoever het klopt dat ze er "allang" mee bezig waren, het lijkt meer op een reactie van Nvidia die snel even Mantle moest downplayen.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 09:02
Sp3ci3s8472 schreef op maandag 09 juni 2014 @ 14:30:
Lijkt mij trouwens een uitermate domme actie om met maar 1 fabrikant DX12 te ontwikkelen, als dat niet zuiver gebeurt dan zou het me niet verbazen dat AMD DX12 support op een laag pitje zet en inzet op Mantle. Vraag me ook af hoever het klopt dat ze er "allang" mee bezig waren, het lijkt meer op een reactie van Nvidia die snel even Mantle moest downplayen.
Met de amd hardware in de xbox one zal het met dx12 ook wel goedkomen.

Door nvidia bij dx12 te betrekken verzekert microsoft zich wederom van windows als enige os voor games. Nvidia is zelfs stukken physx naar directcompute aan het porten.

Stel dat nvidia opengl hard zou gaan pushen als reactie op mantle en amd had mantle naar linux geport dan hadden ze gaming van windows los kunnen weken.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Anoniem: 590917

Zo ver ik weet werken gewoon meerdere bedrijven aan dx12 dat staat tenminste op veel plaatjes.
AMD, Nvidia, Intel en Qualcomm werken er samen aan.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16

Sp3ci3s8472

@ 12 graden...

Anoniem: 590917 schreef op maandag 09 juni 2014 @ 15:52:
Zo ver ik weet werken gewoon meerdere bedrijven aan dx12 dat staat tenminste op veel plaatjes.
AMD, Nvidia, Intel en Qualcomm werken er samen aan.
Qualcomm ook?

Dat klopt er werken inderdaad meerdere bedrijven aan, daarom vond ik het nieuwsbericht van een tijd terug ook zo raar dat Nvidia met Microsoft DX12 al "haast" klaar had.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 09:02
alleen amd en nvidia zijn relevant, misschien intel een klein beetje, maar vooralsnog is cpu overhead daar niet echt een issue.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Anoniem: 590917

Ik heb zo juist eens wat rond gekeken en DX12 schijnt al gebruikt te worden en dat gaan we vanavond misschien meer over zien? MS komt in ieder geval met een racegame die gebruikt maakt van dx12
YouTube: DirectX 12 being used now!

Acties:
  • 0 Henk 'm!

Anoniem: 59888

eL_Jay schreef op maandag 09 juni 2014 @ 10:23:
[...]

Gezien de schaalgroote verwacht ik dat MS (als het het echt zou willen) gecomineerd met Nvidia allang een DX12 op de markt had kunnen brengen die de vloer aanveegt met Mantle. Is meer de vraag hoe hoog het op het prioriteiten lijstje staat en dus wanneer we het kunnen verwachten.
Nou nee, dat is toch echt veel te simpel gedacht. Het is niet zo dat als je ergens 200 programmeurs tegenaan gooit die 200 keer zo veel werk verzetten als één programmeur. Het schaalt wel, maar zeker niet lineair. Hoe meer mensen op één project hoe groter de overheid van samenwerking, vergaderingen etc. Met een complex project als DirectX wat ook nog eens nauw met Windows is verweven wordt dat er bepaald niet beter op. Daarnaast valt testen ook lastig te schalen. Kortom, de schaal van Microsoft is wel een voordeel, maar het is echt niet zo dat ze daar even in een vloek en een zucht een API uit de hoge hoed toveren die de vloer aanveegt met Mantle. Zelfs Microsoft kan niet heksen. ;)
eL_Jay schreef op maandag 09 juni 2014 @ 10:23:
MS kan er namelijk makkelijk een paar miljard op stuk slaan om het proces te versnellen.
(als het prio 1 had, boven xbone, WP en W8.1/W9 was het er allang geweest).
Een paar miljard investeren zonder dat duidelijk is hoe dat ooit terugverdiend gaat worden? Dat zouden de aandeelhouders nooit accepteren en zou de nieuwe CEO en gehele directie onmiddelijk de kop kosten. Uiteraard kan er wel geld in PC gaming geïnvesteerd worden maar een paar miljard "stuk slaan" is echt niet aan de orde.
eL_Jay schreef op maandag 09 juni 2014 @ 10:23:
Wat betreft de Windows hegemonie voor gaming. Die gaat nog jaren aanhouden al was het alleen maar vanwege de backwards compatibility die Linux en OSX missen waardoor gelijk >90% van de games niet werkt. Linux heeft nog een lange weg te gaan (hoewel ik hoop ooit zonder windows te kunnen) want van mijn >300 games zijn volgens mij alleen de games van Valve de Triple A games die op Linux werken.
Nou ja, je hoeft je Windows-installatie natuurlijk niet meteen te nuken als je op Linux wil gaan gamen, dat kan naast elkaar. Het is wel een issue, maar de meeste mensen spelen toch vooral de nieuwste games. Als Linux-gaming aantrekkelijk genoeg is zal dat een overstap niet tegenhouden. Op de consoles was het ontbreken van backwards compatibility ooit ondenkbaar, die tijden zijn reeds lang voorbij.

Voor wat betreft AAA Linux games valt dat inderdaad nog wat tegen, maar alle grote game engines ondersteunen inmiddels Linux en dat doen ze echt niet voor de lol. AAA games voor Linux zijn in aantocht. Bij wat minder bekende games (Serious Sam 3, The Witcher 3) is die ondersteuning er soms al wel en ook bij indie games zie je het steeds meer.

[ Voor 6% gewijzigd door Anoniem: 59888 op 09-06-2014 17:24 ]


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Anoniem: 59888 schreef op maandag 09 juni 2014 @ 17:20:
[...]


Een paar miljard investeren zonder dat duidelijk is hoe dat ooit terugverdiend gaat worden? Dat zouden de aandeelhouders nooit accepteren en zou de nieuwe CEO en gehele directie onmiddelijk de kop kosten. Uiteraard kan er wel geld in PC gaming geïnvesteerd worden maar een paar miljard "stuk slaan" is echt niet aan de orde.
Ik geef alleen maar aan dat MS dat kan doen mochten de aandeelhouders daartoe besluiten (prio 1 geven) en ja, ik denk dat Windows als game-OS zeker stellen een strategisch verantwoorde keuze is voor MS, veel verantwoorder dan een WP of Xbone. (op de xbox en WP zijn ook miljarden stukgeslagen). Immers als gaming op Linux net zo goed werkt als op Windows zal imo het marktaandeel windows significant afnemen bij de consument, want buiten ondersteuning voor pro software heeft windows dan feitelijk geen USP's meer.

(intel kan ook ettele miljarden stuk slaan op een nieuwe chipfabriek voor 10nm, AMD niet, het verschil n schaalgrootte tussen AMD en Intel is volgens mij redelijk vergelijkbaar met die tussen AMD vs MS)

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16

Sp3ci3s8472

@ 12 graden...

Anoniem: 590917 schreef op maandag 09 juni 2014 @ 16:09:
Ik heb zo juist eens wat rond gekeken en DX12 schijnt al gebruikt te worden en dat gaan we vanavond misschien meer over zien? MS komt in ieder geval met een racegame die gebruikt maakt van dx12
YouTube: DirectX 12 being used now!
Niet meer dan logisch dat als het in ontwikkeling is dat er al mee wordt getest.

Ik vraag mij trouwens af hoe betrouwbaar deze bron is, het is een klein youtube kanaal dat uit het niets verteld dat hij "reliable sources" heeft. Als een van de bekende youtube kanalen de melding hadden gemaakt dat was ik eerder geneigd het te geloven :P.

Heeft iemand gister de stream van Microsoft gezien? Volgens mij is er niks over DX12 gezegt zover ik weet, verder kan ik er ook niet veel meer van vinden behalve dat MS een beloft heeft gemaakt dat ze meer info vrij gaan geven (:)).
JStardock founder and CEO Brad Wardell has talked about DirectX 12 and believes that the new graphics API from Microsoft will effectively double the power of the console by improving the performance of games and allowing them to better utilize existing hardware.

DirectX 12 was revealed to the world last week by Microsoft at its BUILD conference as the next evolution of the popular graphics API. Unlike current editions of the technology, the new one will be supported across all of Microsoft's devices, from the Windows-based PCs to the Xbox One or the Windows Phone gadgets.

According to Stardock CEO Brad Wardell, who discussed the new technology for NeoWin, DirectX 12 promises to pretty much double the graphics performance of existing hardware.

Wardell is a strong believer, especially since he is involved with Star Swarm technical demo. The demo currently supports DirectX 11 as well as AMD's new Mantle API, which promises increased performance for certain AMD graphics cards.

After this experience, the Stardock boss is confident that DirectX 12 will signal even bigger changes across many devices.

"With relatively little effort by developers, upcoming Xbox One games, PC Games and Windows Phone games will see a doubling in graphics performance. Suddenly, that Xbox One game that struggled at 720p will be able to reach fantastic performance at 1080p. For developers, this is a game changer."

Wardell emphasizes that, once a video card is released, the performance achieved through software like drivers or APIs can see just slight improvements. With DirectX 12, however, a huge leap can be experienced on the PC.

On the Xbox One the benefit is even bigger, with the developer claiming that the tech "effectively gives every Xbox One owner a new GPU that is twice as fast as the old one."

As a game developer, Wardell also noted that DirectX 12 might have a few problems. First up, in terms of hardware, as current graphics cards have their heat management tools tweaked for DirectX 11, which doesn't use the whole card. Once the new tech appears, expect quite a few heating problems to appear in PCs.

The API will also let developers have greater control over the whole process, which means programmers will have to deal with new problems and issues, instead of relying on DirectX to solve them.

Microsoft has promised that it's going to share way more details about DirectX 12 at E3 2014 in June.
toon volledige bericht
Het lijkt dus ook op de Xbone gericht te zijn omdat de huidige DX die daar in zit maar een thread gebruikt voor dx calls, ik dacht dat consoles juist multithreading beter deden. Dat MS op dit moment een API gebruikt die dat niet goed verzorgt is jammer.
DirectX 12 for Xbox One will make it easier for developers to run games in higher resolutions and with more detail, Stardock founder and CEO Brad Wardell has said.

Posting on Twitter, Wardell wrote: "One way to look at the XBox One with DirectX 11 is it has 8 cores but only 1 of them does dx work. With dx12, all 8 do."

Another Twitter user argues that Xbox One already does this, but Wardell says this isn't the case.

"I'm sorry but you're totally wrong on that front," he responded before adding, "XBO is very low on overhead. Overhead is not the problem. It is that the XBO isn't splitting DX tasks across the 8 cores."

Asked on Twitter how DX12 will benefit Xbox One games, Wardell replied: "I think it'll make it easier to have games run at higher resolution and have more objects on screen at once."
http://www.videogamer.com...uggests_stardock_ceo.html

Acties:
  • 0 Henk 'm!

Anoniem: 590917

Niet alleen dat youtube filmpje maar ook op 20 maart aangekondigd waar die game op DX12 draait, blijkbaar is het hier niet opgevallen/misgelopen?

http://www.gameparty.net/...emo-met-directx-12-gelekt

Ook al is het een demo, er is wel een werkende DX12 te zien.

Verder werd er niets over DX12 verteld dat is nog een verrassing maar ja ik zij dan ook niet dat het wel zo zou zijn maar misschien, kan nog komen.

[ Voor 53% gewijzigd door Anoniem: 590917 op 10-06-2014 11:27 ]


Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 06-05 20:00
Sp3ci3s8472 schreef op dinsdag 10 juni 2014 @ 10:10:
[...]
Heeft iemand gister de stream van Microsoft gezien? Volgens mij is er niks over DX12 gezegt zover ik weet, verder kan ik er ook niet veel meer van vinden behalve dat MS een beloft heeft gemaakt dat ze meer info vrij gaan geven (:)).
Nee, is met geen woord over gerept, alleen gamesgamesgames. Wellicht nu de E3 open is voor publiek dat er in wat interviews iets meer duidelijk wordt.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 21:55
Sp3ci3s8472 schreef op dinsdag 10 juni 2014 @ 10:10:
[...]


Niet meer dan logisch dat als het in ontwikkeling is dat er al mee wordt getest.

Ik vraag mij trouwens af hoe betrouwbaar deze bron is, het is een klein youtube kanaal dat uit het niets verteld dat hij "reliable sources" heeft. Als een van de bekende youtube kanalen de melding hadden gemaakt dat was ik eerder geneigd het te geloven :P.

Heeft iemand gister de stream van Microsoft gezien? Volgens mij is er niks over DX12 gezegt zover ik weet, verder kan ik er ook niet veel meer van vinden behalve dat MS een beloft heeft gemaakt dat ze meer info vrij gaan geven (:)).


[...]


Het lijkt dus ook op de Xbone gericht te zijn omdat de huidige DX die daar in zit maar een thread gebruikt voor dx calls, ik dacht dat consoles juist multithreading beter deden. Dat MS op dit moment een API gebruikt die dat niet goed verzorgt is jammer.


[...]

http://www.videogamer.com...uggests_stardock_ceo.html
toon volledige bericht
Mooi verhaal maar ga dat eerst maar eens waar maken. Dubbele performance uit dezelfde hardware zie ik niet snel gebeuren.

En dat stuk over dat videokaarten dan ineens te warm zoden worden klopt ook niet. In ieder geval niet in het geval van de R9 290X. Die zou dat prima aan kunnen. Ja hij clockt dan wel terug om te zorgen dat hij niet te warm wordt. Maar het gaat wel goed werken.

Als ik me niet vergis heeft nVidia daar ook allemaal mooie dingen voor. Dus ik denk dat dat ook niet zo'n issue zal zijn.

Daarnaast heeft de HD6xxx serie al powertune. En dus een TDP limit. Ga je daar overheen clockt hij terug. Kortom je video kaart moet wel heel oud zijn wil je daar echt problemen mee kunnen krijgen.

En de meeste kaarten konden furmark prima aan. En daarmee had je veel meer hitte dan wat je in games voor elkaar kon krijgen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10:46
haarbal schreef op maandag 09 juni 2014 @ 14:59:
Nvidia is zelfs stukken physx naar directcompute aan het porten.
Mooi, wellicht zien we dat tegen 2028 dan in games ;)

Waar jij het over hebt is FLEX. Dat wordt nu alleen aan TWIMTBP partners als toevoeging aan 3.3 aangeboden. Het staat pas voor 3.4 als algemene feature gepland en over enige DirectCompute functionaliteit heeft Nvidia niet meer gerept sinds september vorig jaar.

Waarom is die versie belangrijk? Omdat er voor zover ik weet geen enkele game buiten Planetside 2 3.x gebruikt. 3.0, waar de eerste serie CPU optimalisaties in zitten, is inmiddels DRIE jaar oud. En toch gebruiken games als Arkham Origins en Black Flag nog steeds doodleuk 2.8.6 of 2.8.4.

Dus of je aan dat statement nu enige waarde moet hechten? Nee, niet echt. Wat Nvidia zegt en wat Nvidia doet zijn twee heel erg verschillende dingen.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 09:02
arma 3 gebruikt ook 3, denk dat alle titels met physx die niet meer op de ps360 uitkomen dat wel zullen doen.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10:46
Klopt ja, mijn excuses. Neemt niet weg dat we er de eerstkomende 4 jaar niets van hoeven te verwachten.

Acties:
  • 0 Henk 'm!

Anoniem: 100386

Anoniem: 100386 schreef op donderdag 05 juni 2014 @ 23:08:
[...]


Thx,

Maar ik was meer benieuwd naar deze settings, en of we als consument nu eindelijk eens zelf gebruik hiervan kunnen maken ... :

[afbeelding]
Nou, ik heb de 14.6 beta driver geinstalleerd, en ik krijg voor mn TV inderdaad deze optie. De TV wordt dan standaard aangestuurd met 10-bit. En voor zover ik kan controleren, wordt er inderdaad een 10-signaal uitgestuurd (A2R10G10B10 output to display). Werkt dus goed.

Alleen kom in in MPC-HT nu tegen dat de interne video-mixer maar op 8-bit werkt X8R8G8B8 vziw. Alleen die stap nog, en we hebben een deep-color player voor ietdereen met AMD en apperatuur die ermee overweg kan.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 09:02
http://www.pcworld.com/ar...ith-its-mantle-tools.html

The company has received requests from developers to port Mantle to Linux, Huddy said. AMD over time will dedicate resources to the task, Huddy said.

mantle op linux nog niet uitgesloten blijkbaar.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
nieuws: 'GeForce GTX 880 en 870 met nieuwe Maxwell-gpu's komen in de herfst'
Na het lezen van dit nieuws bericht en vooral ook de reacties erop, had ik een idee dat Mantle en DX12 wel eens anders neergezet zouden kunnen worden dan hoe het nu lijkt, aangezien AMD ook met ARM-Cores bezig is op de CPU/APU.

Wat als de huidige Mantle niet de uiteindelijke Mantle gaat worden in opzet.

Wat als DX12 een soort switching hub gaat worden die een opdracht krijgt, dan kijkt of er een shortcut/Mantle-instructieset op de hardware aanwezig is, en indien niet het door DX11 laat afhandelen, en niks anders.

Maw de driver van de hardware wordt dan een soort firmware (wat een beetje nVidia z`n angle is, als ik dat zo uit het nieuwsbericht kan halen), die draait op de ARMproc op de APU/GPU.

Dan zou DX12 dus 2x zo snel zijn omdat het semiautomatisch Mantle gebruikt, maar elke manufacturer zal dan met dezelfde opzet z`n hardware kunnen maken, Samsung en Intel, en ook bv FPGA`s die specifieke taken op zich nemen wordt dan ook stukken makkelijker om in te zetten.

[ Voor 4% gewijzigd door enchion op 18-06-2014 16:18 ]

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Hierover was ik ook verwonderd, het bedrijf wat Mantle als matig ziet, gaat nu zelfs een ARM core op zijn producten implementeren om (mogelijk) zelf low level calls sneller te verwerken.

Uiteindelijk is het goed als beide bedrijven dit doen en de technieken niet exclusief worden (TWIMTBP exclusive bijvoorbeeld) zodat ze voor de software (games) universeel aanspreekbaar zijn. Dus DX12 wordt dan de vertaler hiervoor ?

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10:46
nieuws: AMD port Mantle naar Linux

Daar is 't dan, nu op naar de aankondiging dat ze ook Intel en/of Nvidia achter zich hebben geschaard ;)

Acties:
  • 0 Henk 'm!

  • The Fox NL
  • Registratie: Oktober 2004
  • Laatst online: 10-05 23:24
Werelds schreef op woensdag 18 juni 2014 @ 17:46:
nieuws: AMD port Mantle naar Linux

Daar is 't dan, nu op naar de aankondiging dat ze ook Intel en/of Nvidia achter zich hebben geschaard ;)
Ik zat er eigenlijk al op te wachten. De AMD drivers voor Linux schijnen niet helemaal je van het te zijn. Mantle is helemaal nieuw en simpel gehouden, dus volgens mij ook erg makkelijk te porten naar Linux. Voordeel voor gameontwikkelaars is dat ze de grafische code hetzelfde kunnen houden tussen Windows en Linux en dezelfde performance kunnen halen.
Ik had deze melding eigenlijk al eerder verwacht.

Acties:
  • 0 Henk 'm!

Anoniem: 59888

Werelds schreef op woensdag 18 juni 2014 @ 17:46:
nieuws: AMD port Mantle naar Linux

Daar is 't dan, nu op naar de aankondiging dat ze ook Intel en/of Nvidia achter zich hebben geschaard ;)
Toen SteamOS in eerste instantie alleen Nvidia ondersteunde werd er door een enkeling geroepen dat het gedaan was met AMD. Anderen speculeerden dat AMD nog geen drivers had omdat het voor linux vol op Mantle in zou gaan zetten. Zie hier het resultaat: weer een nieuwe stap om van Linux een valide gaming-OS te maken. We hadden het er laatst al over, het is de zoveelste. Mij hoor je in elk geval niet klagen. ;)

Een ander interessant punt: het ligt niet voor de hand dat AMD aan een linux versie zou werken als Mantle zelf nog volop in ontwikkeling zou zijn. Het is heel erg speculatief, maar dit zou een teken kunnen zijn dat de ontwikkeling van Mantle redelijk ver gevorderd is en we binnen nu en een paar maanden een final versie (in elk geval voor Windows) zullen gaan zien. Wie weet.

Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Anoniem: 59888 schreef op woensdag 18 juni 2014 @ 22:36:
[...]

Toen SteamOS in eerste instantie alleen Nvidia ondersteunde werd er door een enkeling geroepen dat het gedaan was met AMD. Anderen speculeerden dat AMD nog geen drivers had omdat het voor linux vol op Mantle in zou gaan zetten. Zie hier het resultaat: weer een nieuwe stap om van Linux een valide gaming-OS te maken. We hadden het er laatst al over, het is de zoveelste. Mij hoor je in elk geval niet klagen. ;)

Een ander interessant punt: het ligt niet voor de hand dat AMD aan een linux versie zou werken als Mantle zelf nog volop in ontwikkeling zou zijn. Het is heel erg speculatief, maar dit zou een teken kunnen zijn dat de ontwikkeling van Mantle redelijk ver gevorderd is en we binnen nu en een paar maanden een final versie (in elk geval voor Windows) zullen gaan zien. Wie weet.
SteamOS met Mantle betekent dus eigenlijk meer dat het gedaan is met MicroSoft. ;)
Officieel gedaan met de monopolie.

Ik gok nl ook dat Valve wel eens goede vrienden met Google zou kunnen worden
(SteamOS en Android/GoogleAppstore tegelijk op 1PC/Platform is nl niet iets waar MS vrolijk vanwordt), en dat Google en Apple`s sterk vergrote marktaandeel ervoor zorgen dat dingen als Mantle nu eindelijk mogelijk worden.
AMD durft het nu aan omdat MS de situatie niet meer kan uitwringen/domineren.
AMD was al met extra ARM-chips bezig op de APU om twee OS`sen naast elkaar te laten lopen(Windows en Android), maar wat als ze eigenlijk SteamOS en Android naast elkaar bedoelen. >:)

Ik verwacht ook dus dat Apple met soortgelijk nieuws gaat komen mbt low-level access en dat spellen over 5 jaar op tenminste 3 grote platformen speelbaar zijn naast de consoles.

Het lijkt er met alles op dat MS de touwen nu echt aan het verliezen is, en dat hardware een steeds meer generiek inzetbaar product gaat worden.
Overnames (Nokia) en deals die MS (bv Sony) de laatste tijd aan het doen is zijn imho niks anders dan stuiptrekkingen van een brekende monopolie op de PC markt

[ Voor 4% gewijzigd door enchion op 19-06-2014 00:04 ]

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

Anoniem: 59888

enchion schreef op donderdag 19 juni 2014 @ 00:00:
[...]


SteamOS met Mantle betekent dus eigenlijk meer dat het gedaan is met MicroSoft. ;)
Officieel gedaan met de monopolie.
Nee, dat is veel te voorbarig. Het heeft er alle schijn van dat gamen op linux op termijn een serieuze optie gaat worden, waarmee Windows dus eindelijk serieuze concurrentie krijgt (Apple is dat nooit geweest). Hoe succesvol dat gaat worden en of het monopolie daadwerkelijk doorbroken zal worden moeten we nog maar gaan zien. Persoonlijk hoeft Windows van mij niet het afvoerputje in, ik hoef niet zo nodig het ene monopolie voor het andere in te ruilen. Ik wil graag over op linux, als dat straks goed mogelijk is ben ik tevreden. Als andere mensen liever wel op Windows blijven is dat wat mij betreft prima, zo lang er maar genoeg mensen ook naar linux verhuizen dat die markt groot genoeg is om van linux een volwaardig game-platform te maken.
enchion schreef op donderdag 19 juni 2014 @ 00:00:
Ik gok nl ook dat Valve wel eens goede vrienden met Google zou kunnen worden
(SteamOS en Android/GoogleAppstore tegelijk op 1PC/Platform is nl niet iets waar MS vrolijk vanwordt), en dat Google en Apple`s sterk vergrote marktaandeel ervoor zorgen dat dingen als Mantle nu eindelijk mogelijk worden.
Waar baseer je dat op? Waar heeft Valve Google voor nodig? Waar heeft Google Valve voor nodig?
enchion schreef op donderdag 19 juni 2014 @ 00:00:
AMD durft het nu aan omdat MS de situatie niet meer kan uitwringen/domineren.
AMD was al met extra ARM-chips bezig op de APU om twee OS`sen naast elkaar te laten lopen(Windows en Android), maar wat als ze eigenlijk SteamOS en Android naast elkaar bedoelen. >:)
Dat is twee linux-distributies naast elkaar draaien. Wat is daar het nut van?
enchion schreef op donderdag 19 juni 2014 @ 00:00:
Ik verwacht ook dus dat Apple met soortgelijk nieuws gaat komen mbt low-level access en dat spellen over 5 jaar op tenminste 3 grote platformen speelbaar zijn naast de consoles.
Waar baseer je die verwachting op? Heeft Apple iets aangekondigd m.b.t. gaming?

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Apple heeft stiekem sinds iOS gaming heel belangrijk gevonden, getuige dit jaar van de MFi game controllers, Metal en de HandOff-feature die blijkbaar ook op de AppleTV werkt. Bij dat laatste, denk aan gaming op je iDevice dat je door je AppleTV kan laten overnemen en met een controller verder spelen en vice-versa.

Als Apple Steam zou integreren in iOS of tenminste MacOS X, zal (samen met Linux) Microsoft het gaan voelen. Het enige dat Linux tegenhoudt om een belangrijk OS te worden voor gaming is een easy-to-use OS (SteamOS: check) en de drivers voor de belangrijke merken (Nvidia: check, AMD: bijna check).

[ Voor 13% gewijzigd door Phuncz op 19-06-2014 08:38 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 09:02
Werelds schreef op woensdag 18 juni 2014 @ 17:46:
nieuws: AMD port Mantle naar Linux

Daar is 't dan, nu op naar de aankondiging dat ze ook Intel en/of Nvidia achter zich hebben geschaard ;)
The company has received requests from developers to port Mantle to Linux, Huddy said. AMD over time will dedicate resources to the task, Huddy said.
ze zijn nog niet eens begonnen.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10:46
enchion schreef op donderdag 19 juni 2014 @ 00:00:
Ik verwacht ook dus dat Apple met soortgelijk nieuws gaat komen mbt low-level access en dat spellen over 5 jaar op tenminste 3 grote platformen speelbaar zijn naast de consoles.
Ik hoop het niet. Ik hoop dat Apple zich achter Mantle schaart en niet hun eigen Metal naar OS X port en dat probeert te pushen.
haarbal schreef op donderdag 19 juni 2014 @ 09:22:
ze zijn nog niet eens begonnen.
Zeg ik toch ook niet? Het is nu echter wel bevestigd ;)

Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Anoniem: 59888 schreef op donderdag 19 juni 2014 @ 08:24:
[...]
Nee, dat is veel te voorbarig. Het heeft er alle schijn van dat gamen op linux op termijn een serieuze optie gaat worden, waarmee Windows dus eindelijk serieuze concurrentie krijgt (Apple is dat nooit geweest). Hoe succesvol dat gaat worden en of het monopolie daadwerkelijk doorbroken zal worden moeten we nog maar gaan zien. Persoonlijk hoeft Windows van mij niet het afvoerputje in, ik hoef niet zo nodig het ene monopolie voor het andere in te ruilen.
[...]
Waar baseer je dat op? Waar heeft Valve Google voor nodig? Waar heeft Google Valve voor nodig?
Dat is twee linux-distributies naast elkaar draaien. Wat is daar het nut van
[...]
Waar baseer je die verwachting op? Heeft Apple iets aangekondigd m.b.t. gaming?
Met einde van de monopolie bedoelde ik eigenlijk niet dat MS meteen einde oefening is, maar dat het gereduceerd geworden is als gewoon 1 van de opties/smaken, aangezien hardware nu dus de kant op gaat dat het makkelijk voor meerdere platformen inzetbaar is, en de functionaliteit zo kan zijn dat de programmabouwer zich eigenlijk niet meer op een specifiek platform hoeft te richten vanwege barrieres.

Ik borduur hiermee voort op mn eerdere post dat DX12 misschien niets anders wordt dan een distributiekap (voorversterker), en dat de Mantle die je nu ziet niet hetzelfde is als wat de definitieve versie zou worden.
Wat je nu ziet met Battlefield, Thief zou dan Mantle low-level en high-level ineen zijn (geintegreerde versterker), omdat DX11 geen pad heeft naar de low-level hardware zelf (eindversterker), uiteindelijk neemt DX12 het high-level opzich en zou alleen low-level-Mantle (eindversterker) op de APU zelf gezet worden, daarom ook die extra proc op de APU en ook nVidia met een soortgelijk idee.

Indien de struktuur er zo uit zal gaan zien dan is het voor Apple ook relatief makkelijk om mee te doen ze hoeven alleen het high-level (voorversterker) te creeeren, afhankelijk van hoe moeilijk dat is moeten ze er over een paar jaar wel kunnen zijn.
Mantle zou dan alleen op de AMD hardware aanwezig zijn.

Valve en Google samen op 1 systeem kan handig zijn vanwege de hoeveelheid Apps/functionaliteit, alles draait tegenwoordig om de grootte van de App-store, daarbij heeft Google nog wat andere handige functionaliteiten, Docs, Youtube, enzzz.
Daarbij is het zoals je al zegt allebei linux dus is het niet te ver gezocht
Dat zou ervoor kunnen zorgen dat bij de overstap naar een linux platform de drempel ineens een stuk lager wordt Steam/Android box wordt dan gewoon een uit de kluiten gewassen telefoon waar je ongeveer alles op kan doen wat je ook op de PC kan, maar dan op de TV.

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

Anoniem: 590917

Mooi, en ik hoop dat Manrle naar Linux komt. OGL zal ook moeten blijven en dat doet het ook anders kun je straks alleen maar met AMD op Linux en dat gaat natuurlijk nooit gebeuren.
Ik vind het vooral mooi dat Mantle dan kan blijven bestaan (misschien niet meer op Windows) maar wel op Linux.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 21:55
Wat denken jullie van de geruchten over een eventuele Hawaii XTX?
Die geruchten gingen al rond toen de R9 290X net uit was. Men dacht dat er veel meer shaders in zaten dan er nu actief waren.

Als het al waar zou zijn vraag ik me af hoe je dit koel wilt houden. De huidige GCN architectuur verbruikt relatief veel stroom. Een nieuwere stepping zou daar wel verbetering in kunnen brengen.
Veel R9 290X kaarten werken ook prima met -80mv en dat scheelt behoorlijk in het verbruik. Dus als de yields verbeterd zouden zijn kun je ook de voltages nog wat laten zakken.

Ik ben in ieder geval benieuwd of die kaart nog gaat komen. Zou wel erg leuk zijn en een mooie afsluiting van de AMD 28nm generatie.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik vermoed dat het mogelijk is met een hybrid koeler zoals de R9-295X2. Ik vermoed ook dan dat het de R9-295X zou gaan heten.

Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 06-05 20:00
Astennu schreef op donderdag 26 juni 2014 @ 09:35:
Wat denken jullie van de geruchten over een eventuele Hawaii XTX?
Die geruchten gingen al rond toen de R9 290X net uit was. Men dacht dat er veel meer shaders in zaten dan er nu actief waren.

Als het al waar zou zijn vraag ik me af hoe je dit koel wilt houden. De huidige GCN architectuur verbruikt relatief veel stroom. Een nieuwere stepping zou daar wel verbetering in kunnen brengen.
Veel R9 290X kaarten werken ook prima met -80mv en dat scheelt behoorlijk in het verbruik. Dus als de yields verbeterd zouden zijn kun je ook de voltages nog wat laten zakken.

Ik ben in ieder geval benieuwd of die kaart nog gaat komen. Zou wel erg leuk zijn en een mooie afsluiting van de AMD 28nm generatie.
Denk inderdaad wel dat het voltage wat lager ligt, die 295x kaarten zullen cherry picked zijn en in lage oplage, dus vermoed dat het wel snor zal zitten. Hybride koeler zie ik ze niet direct doen, maar misschien zit ik fout en willen ze toch de overclock-community aanspreken

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 21:55
Hybrid cooling is helemaal niet nodig. Je kan ook gewoon voor een full cover H2O gaan.
Maar liever zie ik toch een goede blower cooler. nVidia kan het ook voor elkaar krijgen. AMD moet er alleen wat meer geld in steken. Nu is het wel zo dat die nVidia kaarten ook wat minder stroom verstoken en er dus minder warmte afgevoerd moet worden. Dus het is een combinatie van die twee.

Maar imo moet het nog steeds kunnen om een veel beter / stiller blower based cooler te maken.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

SpankmasterC schreef op donderdag 26 juni 2014 @ 09:47:
Hybride koeler zie ik ze niet direct doen, maar misschien zit ik fout en willen ze toch de overclock-community aanspreken
Die hybrid cooler op de R9 295X2 zit er niet op voor overclock mogelijkheden maar om de kaart gekoeld te krijgen. Meer dan 500W aan hitte voer je niet zomaar af.
Astennu schreef op donderdag 26 juni 2014 @ 09:51:
Hybrid cooling is helemaal niet nodig. Je kan ook gewoon voor een full cover H2O gaan.
Op zich vind ik dat ook leuk maar AMD verkoopt geen bouwpakketten maar complete oplossingen. Voorlopig heb ik nog geen OEM gezien die een fullcover block combineert met een radiator + pomp in een betaalbare vorm. Dus dat gaat (nog) niet gebeuren.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 11-05 22:49
Ach, met een simpele koeler moet dit toch prima te koelen zijn. Heel veel meer dan een 290x zal het niet verbruiken gezien het aantal shaders dat erbij komt. Ik dacht ook ergens gelezen te hebben dat AMD dit keer meer aandacht ging besteden aan het koelsysteem.

[ Voor 24% gewijzigd door spNk op 26-06-2014 12:45 ]


Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 06-05 20:00
Phuncz schreef op donderdag 26 juni 2014 @ 10:50:
[...]

Die hybrid cooler op de R9 295X2 zit er niet op voor overclock mogelijkheden maar om de kaart gekoeld te krijgen. Meer dan 500W aan hitte voer je niet zomaar af.
Sure, weet ik, maar dezelfde cooler op een 300W kaart levert een hele mooie overclock kaart op, dat bedoelde ik.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 21:55
Phuncz schreef op donderdag 26 juni 2014 @ 10:50:
[...]

Die hybrid cooler op de R9 295X2 zit er niet op voor overclock mogelijkheden maar om de kaart gekoeld te krijgen. Meer dan 500W aan hitte voer je niet zomaar af.


[...]

Op zich vind ik dat ook leuk maar AMD verkoopt geen bouwpakketten maar complete oplossingen. Voorlopig heb ik nog geen OEM gezien die een fullcover block combineert met een radiator + pomp in een betaalbare vorm. Dus dat gaat (nog) niet gebeuren.
Klopt maar zo iets is wel te maken. Of in ieder geval een connectie vlak met de base van de water cooler zodat die aansluit op de heatsinks van de VRM's/Mem modules. Als je de rest van de kaart bedekt met een grote heatsink kan dat wellicht ook nog wel zo goed als passies gekoeld worden.

Ik ben ook zeker niet voor een bouwpakket. Maar wellicht zijn er nog wel manieren te vinden waarop je de pomp wel in een full cover blok kan inbouwen.
spNk schreef op donderdag 26 juni 2014 @ 12:44:
Ach, met een simpele koeler moet dit toch prima te koelen zijn. Heel veel meer dan een 290x zal het niet verbruiken gezien het aantal shaders dat erbij komt. Ik dacht ook ergens gelezen te hebben dat AMD dit keer meer aandacht ging besteden aan het koelsysteem.
Tja 5-10% meer zit er el in. Of ze moeten de voltages/clocks verlagen. Maar als ze dat laatste doen is je prestatie winst weer minimaal. Verschil in prestaties zal denk ik toch maar klein zijn als je kijkt naar R9 290 vs R9 290X. Ik denk dat het weer zo een soort stap zal zijn. Alle beetjes zijn mee genomen :)

Maar dit is opzich nog prima koel te houden. En het lijkt me ook niet zo moeilijk om het huidige koel systeem te verbeteren. Maak de kaart dan maar 20 euro duurder. Dat heb ik er graag voor over als hij dan wel stiller is en geen 94c hoeft te draaien. Je hebt de 290 en 290X ook al die kunnen prijsvechten. Dan kun je van de 295X wel een wat luxere kaart maken.
SpankmasterC schreef op donderdag 26 juni 2014 @ 12:52:
[...]

Sure, weet ik, maar dezelfde cooler op een 300W kaart levert een hele mooie overclock kaart op, dat bedoelde ik.
Kijk maar naar de accelero Hybrid. Dan zit je full load rond de 65c met een 290X. Dus zat OC ruimte over qua temps.

[ Voor 8% gewijzigd door Astennu op 26-06-2014 13:07 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
De nieuwe 280 lijkt me wel een mooie kaart worden. Soort van concurrent van de 770 op meer vlakken dan alleen game-performance. Blij dat AMD toch nog met wat interessant komt dit jaar (performance per watt-wise)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 21:55
Ze moeten ook wel. Performance per watt wordt steeds belangrijker. De desktop markt wordt steeds kleiner. De markt voor mobiele device steeds groter. Dus je moet wel mee met die nieuwe beweging. Ik denk dat er ook nog best veel aan GCN te verbeteren is. Hawaii was maar een kleine update. Ik ben erg benieuwd naar GCN 2.0.

Als je zag wat ze met VLIW5 hebben gedaan hebben ze echt gigantische stappen gemaakt. HD2900 (R900) was geen geweldige chip. Maar de laatste versie die in de HD6870 zat (Barts) was echt top qua performance per watt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Het enige dat momenteel gigantisch gekrompen is op desktopgebied, zijn de low-end PC's die mensen kopen die gewoon een computer nodig hebben. Toen de laptops ineens betaalbaar werden ging men ineens de low-end laptops kopen. Toen de netbooks er kwamen voor <400€ dacht men alweer de heilige graal gevonden te hebben. En nu is het de beurt aan de tablets.

Maar PC-gaming is volgens mij nog nooit zo groot geweest. Ik zie nog steeds bar weinig gaming laptops en AMD heeft geen issues met consoles want daar verdienen ze ook leuk op.

Performance/Watt is leuk voor een paar scenario's (enterprise, mobile) maar het ziet er niet naar uit dat we de revolutie mogen verwachten voor de desktop die men deed met de Intel Pentium D naar de Intel Core Duo.

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Phuncz schreef op dinsdag 01 juli 2014 @ 17:58:
Het enige dat momenteel gigantisch gekrompen is op desktopgebied, zijn de low-end PC's die mensen kopen die gewoon een computer nodig hebben. Toen de laptops ineens betaalbaar werden ging men ineens de low-end laptops kopen. Toen de netbooks er kwamen voor <400€ dacht men alweer de heilige graal gevonden te hebben. En nu is het de beurt aan de tablets.

Maar PC-gaming is volgens mij nog nooit zo groot geweest. Ik zie nog steeds bar weinig gaming laptops en AMD heeft geen issues met consoles want daar verdienen ze ook leuk op.

Performance/Watt is leuk voor een paar scenario's (enterprise, mobile) maar het ziet er niet naar uit dat we de revolutie mogen verwachten voor de desktop die men deed met de Intel Pentium D naar de Intel Core Duo.
geen idee wat die revolutie inhoud, maar wat we tot nog toe van maxwell gezien hebben mag je gerust een revolutie noemen (performance per watt is ineens 50% beter dan wat er op de markt was)

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Maar performance per watt zegt niets over performance. Zo kun je ook performance per decibel of performance per GB VRAM gaan vergelijken. Het enige wat eraan nuttig is, is dat de temperaturen lager kunnen. Ik onderstreep 'kunnen' omdat het niet zomaar respectievelijk naar andere GPU's doorgetrokken kan worden. We zullen zien wat Maxwell in de high-end brengt maar voorlopig blijft het speculatie die we doortrekken van performance/watt voor CPU's heeft gedaan, wat niet zomaar opgaat.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 09:02
Bij mobile valt natuurlijk een hoop meer te verdienen met goeie performance / watt.

Maar goed, ik denk dat de focus vooral komt omdat performance / watt ook enorm belangrijk wordt voor de performance op zich. 20nm laat lang op zich wachten en is mogelijk helemaal niet zo veel efficienter, dus ze moeten wel :)

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Phuncz schreef op dinsdag 01 juli 2014 @ 17:58:
Ik zie nog steeds bar weinig gaming laptops en AMD heeft geen issues met consoles want daar verdienen ze ook leuk op.
Dit komt vooral door de geheugen bandbreedte tekort waar de GPU prestatie van de APU onder gebukt gaan. Oplossingen hiervoor zijn onderweg terwijl de GPU in APUs tevens ook sneller worden waardoor het wegnemen van het geheugen bandbreedte tekort belangrijker wordt.

Intel heeft dit opgelost d.m.v. eDRAM (duur, naast dat CPUs van Intel die dit gebruiken op zichzelf ook al duur zijn).

Hoe dan ook, als het geheugen bandbreedte tekort is opgelost zie ik de AMD APUs als een goede oplossing voor degelijke gaming laptops met AMD.

Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 12-05 22:29
Ligt het aan mjj of is 14.4 gewoon echt brak?
Met 14.4 crashed Renegade X (mod met de unreal engine) bij iedere game die ik joinde...
Met 14.6RC is alles echter gewoon stabiel :/

(7970 cf overigens)

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Nee hoor, 14.4 is juist heel stabiel. Het ligt dus aan jou :P

Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 12-05 22:29
Het vreemde is ook dat 14.4 op mijn laptop met 7970M wel gewoon goed werkt en alleen op mijn desktop niet :s
Toch vanavond nog even proberen, aangezien de game een extra commando mee kreeg om geen intro movie af te spelen, wat het joinen ook soms extra liet crashen...

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Phuncz schreef op dinsdag 01 juli 2014 @ 21:00:
Maar performance per watt zegt niets over performance. Zo kun je ook performance per decibel of performance per GB VRAM gaan vergelijken. Het enige wat eraan nuttig is, is dat de temperaturen lager kunnen. Ik onderstreep 'kunnen' omdat het niet zomaar respectievelijk naar andere GPU's doorgetrokken kan worden. We zullen zien wat Maxwell in de high-end brengt maar voorlopig blijft het speculatie die we doortrekken van performance/watt voor CPU's heeft gedaan, wat niet zomaar opgaat.
Mwah, in mijn ITX systeem (19 L) een aankomende Brix gaming (0,8 L) wil ik maximale prestaties met een TDP dat in betreffende form-factor gekoeld kan worden zonder als een stofzuiger te klinken. Grote bakbeesten om te gamen zijn zo 2010 :p.

Nvidia heeft al de beste papieren wat betreft performance per watt. Maxwell lijkt er sterk op voort te borduren (want de GM107 is gewoon een beest van een chip in positieve zin, de 290x en FX9590 zijn ook beesten maar in minder positieve zin)

Ik heb wel echt goede hoop voor de nieuwe 280

offtopic:
Helaas heeft de brix 760 een sexy i5 4200H of i7 gecombineerd met een GTX 760 (die redelijk ineeficient is) en de Zbox EN 760 heeft helaas een i5 ulv gecombineerd met de prachtige 860m. Moeilijk moeilijk

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik heb een R9 290X met Core i5-4670K in mijn 12.6L case, 60°C load dankzij waterkoeling. Geen enkele noodzaak voor performance/watt in dat segment. NUC-formaat is een heel ander verhaal, daar gaat het over mobiele GPU's.

Afbeeldingslocatie: http://i.imgur.com/5dnn7eF.png

[ Voor 10% gewijzigd door Phuncz op 03-07-2014 16:37 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 21:55
Inderdaad. Ik had in een Prodigy M 2x R9 290X zitten.
Als je een beetje slim bouwt is er veel mogelijk.

Maar dat neemt niet weg dat ik hoop dat AMD het stroomverbruik en de standaard cooler flink gaat verbeteren.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

In mijn ogen is de cooler het grootste probleem, gezien hoe de concurrentie presteert met verbruik dat niet ver af zit van AMD, maar met een cooler die bijna iedereen lijkt eindeloos te frustreren mag daar voorrang aan gegeven worden :)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 21:55
Ja inderdaad. Met de nieuwe Powertune valt het nog mee. Maar daar door verlies je aardig wat fps.
Hier zie je ook dat die 3th party coolers het veel beter doen. Kaarten zijn stiller en sneller.

Ze hadden gewoon een Dual fan versie van de HD7990 cooler moeten maken. Dat is echt een mooi ding.

[ Voor 20% gewijzigd door Astennu op 04-07-2014 10:08 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • wolverine3141
  • Registratie: September 2004
  • Laatst online: 11-05 15:42
Zijn er hier ook mensen die uitkijken naar de nieuwe adaptive sync monitors? Ik stond op het punt een nieuwe WQHD scherm te kopen maar toen dacht ik laat ik maar wachten om deze nieuwe techniek mee te pakken. Ik heb namelijk een R9 290 kaart die het ondersteund.

iRacing profile | Racing rig


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Heel wat mensen denk ik. Heb nu een 1080p 120 hz monitor waar ik op zich heel tevreden over ben maar zou wel een hogere resolutie willen. Echter ik ga niks kopen voordat adaptive sync geimplementeerd is. Hopelijk doet het wat het beloofd.

Het levert m.n. bij lagere fps vloeiendere beelden op, iets wat me erg nuttig lijkt bij hogere resoluties (4k) omdat hoge FPS daar moelijker haalbaar zijn (bij gelijke IQ).

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 12-05 22:29
Phuncz schreef op woensdag 02 juli 2014 @ 09:22:
Nee hoor, 14.4 is juist heel stabiel. Het ligt dus aan jou :P
... Werkt nu idd gewoon goed :/
Het was dus het spel zelf dat instabiel was.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Help!!!! schreef op vrijdag 04 juli 2014 @ 11:21:
Het levert m.n. bij lagere fps vloeiendere beelden op, iets wat me erg nuttig lijkt bij hogere resoluties (4k) omdat hoge FPS daar moelijker haalbaar zijn (bij gelijke IQ).
Dit. Ik voorzie nog geen single-GPU's die elke nieuwe game in 4K mooi kunnen draaien, maar ik kijk al wel uit naar een leuke 32" 4K IPS monitor voor misschien eind dit jaar. Dan is het leuk om nog met mijn R9 290X uit de voeten te kunnen. Sowieso omdat het een techniek is waar ik veel nut in zie., video zou nu ook veel vloeiender afgespeeld moeten kunnen worden.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 21:55
lethal pi schreef op vrijdag 04 juli 2014 @ 11:16:
Zijn er hier ook mensen die uitkijken naar de nieuwe adaptive sync monitors? Ik stond op het punt een nieuwe WQHD scherm te kopen maar toen dacht ik laat ik maar wachten om deze nieuwe techniek mee te pakken. Ik heb namelijk een R9 290 kaart die het ondersteund.
Yep!
Ik heb nu een 3008WFP. Zou maar al te graag naar 4K willen. Maar ik ga inderdaad wachten op Adaptive sync schermen en 30" 4K IPS. Ik heb dit scherm nu een jaar of 6. En hij kan nog prima een tijd mee. Dus ik wacht het gewoon even af. Als ik zo'n scherm koop moet het zeker weer een jaartje of 5 mee gaan. Mijn 2405WFP heb ik ook 4 jaar intensief gebruikt. En die heb ik nog steeds als 2e monitor.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Astennu schreef op vrijdag 04 juli 2014 @ 13:24:
Maar ik ga inderdaad wachten op Adaptive sync schermen en OLED.
FiXeD :+ Ik weiger nog een keer voor LCD prut te betalen : OLED FTW!!! :Y)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!
Nieuw deel *O*
CJ's Radeon Info & Nieuwsdiscussie - Deel 128

Dat er maar weer veel gepost mag worden, laat de oude tijden herleven. :D

[ Voor 14% gewijzigd door -The_Mask- op 09-07-2014 14:30 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Bolletje
  • Registratie: Juni 2008
  • Laatst online: 12-05 23:14

Bolletje

Moderator Harde Waren
Wat hierboven verteld wordt :)
Pagina: 1 ... 5 6 Laatste

Dit topic is gesloten.