Eerst en vooral, met alle respect, het is niet zo handig om alleen de Nederlandstalige Wikipedia voor zoiets te gebruiken. Natuurlijk zijn Nederlanders niet dommer of slechter ingelicht of zo dan de Americanen en Engelsen en zo maar wij zijn met 17 miljoen mensen terwijl honderden miljoenen tot een paar miljard mensen goed Engels spreken. De gemeenschap die aan de Nederlandstalige Wikipedia werkt is veel kleiner waardoor het vaker voorkomt dat een wiki niet goed is uitgewerkt, het hangt natuurlijk wel sterk van het onderwerp af (over de geschiedenis van Nederland zal je op de Nederlandstalige wiki weer meer vinden). In dit geval merk je duidelijk dat deze wiki een kleine beginnetje is waar door weinig mensen aan is gewerkt, klik op de Engelstalige versie en je krijgt een veel beter artikel te lezen wat ook nog op een ander probleem dan tearing wijst wat door FreeSync/G-Sync wordt opgelost.
Nu de technische uitleg.
Als jouw monitor een vaste frequentie heeft van 60 Hz dan vraagt het elke 1/60ste seconde aan de grafische kaart het plaatje wat op dat moment in de buffer staat (3*8 bit voor alle pixels die je hebt normaal gesproken, op dit moment), op het moment dat de grafische kaart de helft van die buffer heeft overgeschreven en het plaatje is ondertussen gewijzigd - jij hebt met de muis de camera bewogen, jij hebt het karater verplaatst of het spel heeft iets verplaatast - dan wijkt de bovenste helft van het plaaatje af van de onderste helft van het plaatje, bij de bovenste helft is de positie van iets al gewijzigd, bij de onderste helft nog niet. Het kan natuurlijk ook om 20/80% of zo gaan, voor het gemak spreek ik nu even over de helft.
spoiler:Ervan uitgaande dat de buffer van 'boven' naar 'onder' wordt gewijzigd, dat hoeft in theorie niet per se zo te zijn maar volgens mij is het wel gebruikelijk.
Dat is wat tearing veroorzaakt.
Als de FPS lager is dan de refreshrate en het eerste plaatje is net volledig bijgewerkt op de buffer van de grafische kaart op het moment dat de monitor het opvraagt dan zal het volgende plaatje
meestal ook netjes volledig zijn verwerkt voordat de monitor het opvraagt zolang de FPS speelbaar is (laten we voor het gemak >30 nemen, bij consoles is 30 een typische FPS). Echter zal op een gegeven moment het een (bijschrijven van de buffer) zoveel verschuiven t.o.v. het ander (de monitor die het laatste plaatje opvraagt) dat je toch weer een half gewijzigd plaatje in de buffer krijgt. Het grote verschil is dat het
veel minder voorkomt omdat je een groot aantal cycli nodig hebt voordat dit voorkomt terwijl je bij een hogere FPS dan de refreshrate elke paar cycli of vaker dit probleem hebt. Bedenk hierbij ook dat het bij een lagere FPS dan de refreshratae minder voorkomt naarmate de FPS dichter bij de 60 ligt.
In het kort: je hebt altijd last van tearing als je monitor een vaste refreshrate heeft, alleen heb je daar bij een FPS van meer dan 60 veel meer last van dan bij een FPS van onder de 60. Enkel als de FPS
precies gelijk is aan de refreshrate of het gelijk is aan 60/X, met X is een geheel getal >1, heb je geen last van tearing..
VSync zorgt ervoor dat de buffer met een vaste frequentie wordt overgeschreven, in de praktijk meestal 30 of 60 aangezien de frequentie van de meeste LCD monitors momenteel 60 Hz bedraagt (in toenemende ook hoger). Hierdoor zal altijd het volledige plaatje zijn verwerkt in de buffer voordat de monitor het volgende plaatje opvraagt.
Nadelen? De intensiteit van de graphics verschilt sterk tijdens het spelen en soms kan een plotseling hogere CPU-load (veel NPC's of kogels, ontploffingen...) ervoor zorgen dat de grafische kaart moet wachten totdat de CPU ergens klaar mee is. Stel dat de FPS meestal boven de 60 zit maar ineens op 55 uitkomt dan gaat het met V-Sync aan moeten verlagen naar 30, voor 30<X<60 werkt VSync immers niet, het moet 60 of 30 zijn als de refreshrate van de monitor 60 bedraagt.
Het tweede nadeel is dat je meer inputlag krijgt; het tijdsverschil tussen dat jij de muis beweegt of op een knop duwt (of de knuppel van een controller verplaatst) en dat op jouw scherm deze beweging wordt verwerkt is groter. Dat speelt niet zo fijn en dit is dan ook een belangrijke reden waarom veel gamers een hekel hebben aan VSync, om die reden klagen veel mensen als een developer VSync verplicht. Die developer doet dat vaak omdat het de code zo heeft laten schrijven dat er bugs ontstaan als je geen vaste FPS hebt, bijvoorbeeld doordat delen van de gameplay (rijden, schieten van kogels) zijn gekoppeld aan die FPS. Een andere reden kan zijn dat Sony of Microsoft eist van de developer dat de PC-port geen hogere FPS krijgt omdat Sony en Microsoft bang zijn dat hun klanten merken dat de PC-versie fijner speelt. Daar zijn geen bewijzen voor maar deze bedrijven zijn hier in het verleden van verdacht.
spoiler:Ik houd me volledig op de vlakte, ik heb er geen mening over of dat het voorkomt.
Dat opent de deuren naar een geheel andere offtopic discussie over ports en parity maar die verleiding weersta ik nu even.
Wat doen G-Sync en FreeSync? Ze zorgen ervoor dat de refreshrate van de monitor wordt aangepast aan de FPS. Wanneer de FPS 40 bedraagt dan is de refreshrate 40, wanneer de FPS 80 bedraagt dan is de FPS 80, zolang de FPS tussen de minimale en maximale refreshrate van de monitor in zit. Met FreeSync en G-Sync moet je er dus voor zorgen dat de FPS tussen de minimale en maximale refreshrate in zit. Sommige monitors hebben twee verschillende bereiken: een lagere en een hogere, dat moet je dus per spel aanpassen. Bijvoorbeeld 30-90 Hz. en 90-144 Hz..
Er is trouwens wel een oplossing als de FPS onder dat minimum zakt maar dat is verre van ideaal (het laatste plaatje nog een keer gebruiken). Het doet er weinig toe, als de FPS zo laag ligt dan raad ik aan om ofwel de instellingen van het spel aan te passen ofwel je hardware te upgraden.

Stel dat je FPS hoger ligt dan maak je de instellingen van de graphics wat zwaarder of gebruik je de framelimiter van de AMD-software (dat is geen VSync!). In het laatste geval wil je iets lager zitten dan de maximale refreshrate omdat het onmogelijk is om zo'n framelimiter de FPS precies onder het maximum te laten houden: bijvoorbeeld 57 als de maximale refreshrate van je monitor 60 bedraagt, of 140 als de maximale refreshrate van je monitor 144 bedraagt. Je moet dat uitproberen, je kan met wat simpele software laten registreren wat je maximale FPS is als je dat wil.
Het verschil tussen G-Sync en FreeSync? G-Sync is ouder, Nvidia koos ervoor om een FPGA in te bouwen in de monitor, die FPGA zorgt ervoor dat de refreshrate van de monitor wordt gesynct met de FPS van het spel (vandaar de namen

). Een FPGA kan je enigszins vergelijken met een programmeerbare CPU, die vaak ook gebruik maakt van wat flashgeheugen. Breek er je hoofd niet over, het is energiezuinig, het is snel, het is duur, het is programmeerbaar en het kan voor 1 taak worden gebruikt zolang je het niet opnieuw programmeert (meestal met Verilog), dat is wat je erover wil weten zonder je in alle details te verdiepen.
AMD was wat later maar pakte het slimmer aan, AMD overlegde met de organisatie die DP (DisplayPort) beheert om de DP-specificaties te benutten om de refreshrate van de monitors te variëren in functie van de FPS, met behulp van de driver van de grafische kaart en de API.
Als jij eenmaal een FreeSync-monitor koopt en een AMD-kaart hebt die FreeSync ondersteunt (sowieso het geval voor een nieuwe AMD-kaart, voor een oude AMD-kaart moet je het even opzoeken) dan kan je zelf het verschil zien door de windmolendemo te gebruiken en hierbij de FreeSync te togglen (aan=>uit=>aan...) en wat sliders te gebruiken. Dan zie je precies wat het effect is. De mensen die het hebben geprobeerd zijn erg enthousiast, voor mij is voor nu nog puur theoretisch, mijn eerstvolgende kaart gaat een AMD-kaart worden en tegen die tijd ga ik ook de monitor aanpassen.
[
Voor 9% gewijzigd door
Verwijderd op 21-10-2016 02:59
]