"Omdat het duuder is" heb ik helemaal niet geclaimd.
Wat nVidia doet is het volgende:
http://www.anandtech.com/show/7582/nvidia-gsync-reviewThe G-Sync module inside the display modifies VBLANK to cause the display to hold the present frame until the GPU is ready to deliver a new one.
With a G-Sync enabled display, when the monitor is done drawing the current frame it waits until the GPU has another one ready for display before starting the next draw process. The delay is controlled purely by playing with the VBLANK interval.
You can only do so much with VBLANK manipulation though. In present implementations the longest NVIDIA can hold a single frame is 33.3ms (30Hz).
Kortom, er *is* geen refreshrate. De GPU kan op ieder willekeurig moment een nieuw frame triggeren (met de beperking dat er na ~33 ms sowieso een nieuw frame moet komen, maar dat heeft te maken met het feit dat dynamisch geheugen periodiek gerefreshd moet worden, het houdt de data niet eindeloos vast).
Wat embedded DisplayPort doet is de refreshrate 'schakelbaar' maken... dus je kunt van 60 fps naar 50 fps schakelen etc (hoeveel verschillende waarden er precies zijn, heb ik niet kunnen vinden... ironisch genoeg moet je betalen voor de documentatie van de VESA standaard die dit beschrijft).
Omdat je in theorie bij ieder frame kunt schakelen naar de 'beste' refreshrate, kun je de latency dus kleiner maken dan met een vaste refreshrate.
Het is echter niet hetzelfde als wat nVidia doet: een refresh vanuit de GPU triggeren op het moment dat een frame gerenderd is.
Bij het aanpassen van een refreshrate heb je nog steeds een refreshrate. Dus als je voor frame N bepaalt dat je op 60 Hz rendert, dan leg je vast dat frame N+1 dus binnen 1/60e van een seconde verstuurd moet worden. Het is dus een minder directe aanpassing dan die van nVidia.
Dit zijn dus *technische* argumenten, en 'omdat het duurder is' heeft daar niets mee te maken.
Als de G-Sync oplossing open en gratis was, zou het nog steeds anders zijn dan FreeSync, en op papier nog steeds de betere oplossing zijn.
Hierbij is het ook nog interessant om te bedenken dat monitors veel 'overdriving' etc toepassen om pixels te forceren sneller van kleur te veranderen, en betere kleurwaarden te halen.
Als je geen vaste refreshrate hebt, zoals bij G-Sync, is het lastiger om een consistente ervaring qua brightness, contrast etc te garanderen.
Microstutter was iig bij AMD een onderdeel van het freesync pakket.
Wederom, technische argumenten:
Microstutter ontstaat wanneer je met 2 of meer GPUs rendert, en de frames zijn niet evenredig verdeeld over de tijd.
Je kunt bv met 2 GPUs hebben dat ze alternate frame rendering doen, en allebei vrij snel na elkaar een nieuw frame af hebben. Daarna hebben ze allebei vrij veel tijd nodig voor het volgende frame.
Je krijgt dan een patroon van nieuwe frames zoals dit:
|-|-------|-|--------|-|------
Dit kun je niet verhelpen door de refresh van de monitor aan te passen. Dit staat daar compleet los van. Wat je moet doen is de tweede GPU iets vertragen zodat het frame 'halverwege' de frames van de eerste GPU valt:
|----|----|----|-----|----|---
[
Voor 15% gewijzigd door
Verwijderd op 19-11-2014 11:52
]