Jeroenneman schreef op donderdag 19 november 2015 @ 14:46:
Na verder onderzoek blijkt dat Freesync "theoretisch" een grote range heeft qua refreshrates, maar dat de eerste Freesync monitors beperkt waren qua minimale refreshrates, terwijl dit bij G-sync bijna geheel vanuit Nvidia bepaalt wordt.
Fout.
Zowel G-Sync als FreeSync zijn beperkt tot wat het paneel daadwerkelijk als refresh rate aan kan. G-Sync is niet verantwoordelijk voor welke refresh rates beschikbaar zijn. Zie
http://www.pcper.com/revi...c-How-Technologies-Differ - dat panel kan niet onder de 40 Hz komen en G-Sync verandert daar helemaal niets aan. De daadwerkelijke refresh rate komt nooit en te nimmer onder de 40 Hz.
Nvidia bepaalt helemaal niets, zij hebben zich te houden aan wat het paneel aan kan. Het "overklokken" staat daar los van, dat kunnen andere scalers ook.
sdk1985 schreef op donderdag 19 november 2015 @ 14:45:
[...]
G-Sync gebruikt een lokale frame buffer om bij te lage Hz (bijvoorbeeld 29 fps) het zelfde beeld nog een keer te laten zien. Bij FreeSync gebeurd dit niet en gaat het scherm terug naar zijn maximale refreshrate. Vervolgens kun je kiezen voor één van de twee de nadelen zoals die er zonder sync zouden zijn: v-sync of tearing. Hoe minder laag de monitor gaat des te sneller dit een probleem oplevert. G-sync is dus technisch gezien de betere, maar ook duurdere, oplossing.
Dit klopt deels wat betreft de
ondergrens van het gebruikte
paneel. Bij het paneel hierboven is dat 40 Hz; onder de 40 FPS gaat G-Sync bij dat specifiek paneel frames dupliceren tot ze op een meervoud van een mogelijke refresh rate komen. 39 FPS wordt dus 78 Hz, 38 FPS 76 Hz - 20 FPS wordt 40 Hz, 19 FPS wordt wordt 57 Hz (3 dezelfde frames achter elkaar!), enzovoort. FreeSync gaat dan op de
ondergrens (niet de bovengrens zoals sdk1985 aangeeft) draaien en dan kun je zelf kiezen of je wel of geen V-Sync wilt.
Is dat technisch beter van Nvidia? Ja en nee. Als jij constant frametimes van 25ms hebt (40ms) met daar tussen in een piek van bijvoorbeeld 27ms (37 FPS), dupliceert de controller een frame na 25ms. Het frame dat 2ms later klaar is kan dan echter niet meteen worden weer gegeven omdat dat interval te kort is. Dit komt natuurlijk maar zelden voor, maar wanneer het zich voordoet heb je een beetje judder (heb dit zelf ervaren). Het betekent echter dat als je bewust op zulke lage framerates speelt, je een beetje judder ervaart. Met FreeSync kun je er dan voor kiezen om V-Sync uit te zetten. Of je dat wil is een andere zaak, maar je hebt de keuze.
Technisch gezien laat Nvidia's oplossing een strakker beeld zien, maar als je die judder vervelend vind heb je niet de keuze om het uit te zetten.
De grote clou is echter dat monitor fabrikanten die lokale framebuffer zelf ook kunnen inbouwen; afgezien van het feit dat ik weet dat er experimenten zijn (geweest) met zo'n buffer aan de driver kant. Helaas kom ik op dit vlak de laatste tijd weinig te weten in de aanloop naar CES en enkele aankomende product releases. Het zou me echter niets verbazen als dit de volgende grote stap voor FreeSync is.
Overigens is het ook waard te vermelden dat G-Sync aan de bovengrens
altijd V-Sync gebruikt, terwijl je dit bij FreeSync weer uit kunt zetten. Dus wil je een game op 200 FPS laten draaien zonder de nadelen van V-Sync, dan kan dat. Op 120/144 Hz heb ik dat persoonlijk liever; tearing is nauwelijks merkbaar, terwijl V-Sync judder dat wel is. Dat geldt natuurlijk niet voor iedereen, maar de keuze is er. En die keuze is er omdat de mogelijkheden niet vast liggen in een klein stukje hardware

Nadeel? Dat is juist een voordeel. Nvidia is geen monitor fabrikant en weet maar "weinig" er van af.
Nvidia's scaler is heel slecht programmeerbaar en behoorlijk gesloten. Dat is waarom bedrijven als Eizo, LG en Samsung allemaal voor FreeSync gaan - zij maken allemaal zelf onderdelen / software (LG en Samsung hebben zelfs vrijwel alles in-house). Vergeet niet dat bedrijven als ASUS, Acer en BenQ enkel monitors assembleren. Zij maken geen van de onderdelen zelf.