Even voor de duidelijkheid, Adaptive Sync is technisch gezien geen AMD product. Het *is* al werkend gemaakt door op z'n minst 1 monitor fabrikant, anders had VESA (waar Nvidia ook gewoon deel van uit maakt) het addendum nooit goed gekeurd

Ik vermoed dat de reden waarom monitorfabrikanten hier zelf niet achteraan zijn gegaan is gewoon omdat het teveel geld kost voor een te groot risico. Bovendien, eigenlijk alleen Asus en BenQ zijn echt met monitoren speciaal aangepast voor gamen bezig, en die maken zelf vrij weinig.
Je vergeet nu even Viewsonic en Samsung, die het allebei al lang voor Asus en BenQ deden. Momenteel mag je echter stellen dat Eizo (yep, ik ben een fanboy

) de enige is die daadwerkelijk actief ontwikkelt met het oog op gaming; in tegenstelling tot de rest, hebben ze geen echte consumenten lijn. Ze hebben hun professionele producten en hun gaming producten. Asus en BenQ hebben verder zelf niet veel ontwikkeld op dat gebied, zij gebruiken voor 99% "off the shelf" onderdelen.
Ik weet ook dat Eizo al vanaf het moment dat G-Sync aan werd gekondigd interesse in het idee had, het was iets waar ze zelf simpelweg nog niet aan gedacht hadden. Na AMD's demo zijn ze daar ook achter aan gegaan, dus ik zou er niet van staan te kijken als Eizo de eerste wordt met een Adaptive Sync monitor
En daar zit het probleem ook meteen: het idee achter Adaptive Sync/G-Sync is simpelweg "raar" voor TV en monitor fabrikanten.
(en itt die twee technieken zit de techniek van G-Sync in de monitor en zou het ook kunnen werken op oudere nVidia GPU's of AMD (als ik hier fout zit corrigeer me dan maar)).
Dat zou enige openheid van Nvidia vereisen naar AMD toe, dus in *theorie* kan het. In de praktijk alleen als Pasen en Pinksteren op één dag vallen

Bij zo'n standaard als deze is er geen mate van hoe goed het werkt. Ze hebben zich aan de standaard te houden, punt. Die standaard is heel specifiek, dus daar kan Nvidia niet van afwijken. En als monitor fabrikanten dit veel implementeren, zal Nvidia gewoon mee moeten. Het is een te groot marketing als ze dat niet doen; het is geen Nvidia of AMD specifiek logo'tje, het is een heel wijd verspreid logo.
Ik ga er verder ook gewoon van uit dat ze hun G-Sync module zullen updaten om Adaptive Sync te ondersteunen. Het is onwaarschijnlijk dat ze G-Sync nu laten vallen, het zal een marketing puntje voor ze blijven. Nvidia laat zelden ook maar iets van hun marketing termen weg vallen

deraco96 schreef op vrijdag 16 mei 2014 @ 00:01:
Kijk bijvoorbeeld nog eens terug naar het microstuttering-debacle. nVidia kwam met FCAT op de proppen om te bewijzen dat ze al jaren doorhadden dat dit een probleem kon vormen met multi-GPU. AMD ging toen pas de problemen die er al veel langer waren oplossen, omdat dit een publiciteitsprobleem ging vormen. Snap je al waar ik heen wil? Ik vind het alleen maar gaaf dat nVidia als eerste (openlijk) iets aan dit probleem gaat doen. Dat de eerste implementatie in die brakke Asus dan wat tegenvalt en niet meteen commercieel verkrijgbaar is is dan jammer, maar ze zijn wel weer degenen die het in gang hebben gezet.
Nu komt AMD met een eigen variant (een betere volgens jullie, en dat geloof ik ook wel) maar als nVidia niet achter een betere manier van schermen verversen aan was gegaan -uit eigen winstmotief en daarom gesloten- waren we nu nog nergens... Daarom is het zo mooi dat beide partijen nog bestaan en competitief zijn, dan houden ze mekaar een beetje scherp. AMD heeft Mantle weer bijvoorbeeld (wat nu nog niks opener is dan G-Sync, alleen moderne GPU's van één fabrikant)
Je zegt het zelf ook al, het gaat altijd zo tussen deze twee fabrikanten. Het verschil is echter dat als het even kan, AMD op zoek gaat naar een oplossing die ze in de hele industrie kunnen gebruiken. AMD/ATI draait al zo veel langer dan Nvidia mee dat ze al veel technieken keihard op hun bek hebben zien gaan. Nvidia doet 3D, AMD reageert door in elk geval iets opener te werken met standaard HDMI 3D, 3rd party drivers, niet afhankelijk van specifieke monitors. Helaas is 3D an sich nu nog steeds nergens echt gestandaardiseerd, dus dat was sowieso gedoemd te falen.
Daarnaast wijst AMD zelden nieuwe technologie af; meestal zeggen ze "leuk" en ontwikkelen vervolgens een tegenhanger. Nvidia heeft altijd een grote bek over hun concurrenten; het is nooit goed tot zij het doen. Uiteraard begrijpelijk, maar het geeft ook weer wat voor bedrijf het is. Ik hoef hier maar een jaar of 5,5 voor terug te gaan, toen AMD met Eyefinity kwam. Nvidia had een grote bek, zei dat het nooit aan zou slaan en dat het gewoon bagger was. Blijkbaar vonden ze het echter wel belangrijk genoeg om in de 6-8 maanden daarna (ze hadden immers de tijd, met hun Fermi problemen) in alle stilte een ontzettend slechte software hack te ontwikkelen om maar iets soortgelijks te hebben. En vervolgens kostte het nog eens twee jaar voordat ze eindelijk een hardware implementatie hadden en het op een enkele kaart kregen uitgevoerd.
Mantle is een apart geval, daar zijn ze vreemd genoeg vrij stil over. Ik moet hier echter weer naar naar de datums van Pasen en Pinksteren verwijzen, want het was vanaf het begin wel duidelijk dat Nvidia er niet veel zin in had. Gelukkig heeft AMD zo wel MS wakker kunnen schudden (nee, DX12 met de lagere overhead is echt nog geen 4 jaar in ontwikkeling samen met Nvidia - ook dat is naïef om te geloven

), dus uiteindelijk komt het ons als consument toch ten goede.
Het lijkt wel alsof ik een hekel aan Nvidia heb, maar niets is minder waar. Ik heb nu een Nvidia kaart en ik heb ook meer Nvidia dan AMD in m'n PC's gehad over de afgelopen 20 jaar. Dat betekent echter niet dat ik geen vraagtekens bij enkele van hun praktijken stel, net zomin als dat voor bijvoorbeeld, AMD, Google, Apple of Microsoft geldt. Veel van die praktijken komen de consument simpelweg niet ten goede en dat is waar het mij uiteindelijk om draait.