fakkelteit1989 schreef op donderdag 28 januari 2016 @ 12:31:
Mijn Monitor is 60 Hertz.
Nu heb ik gelezen dat je dan ook maar 60 fps kan draaien, want je ziet het verschil niet.
Is het dan verstandig om de framesnelheid van de grafische kaart op max 60 te zetten?
Zodat ik eigenlijk altijd 60 fps heb?
In hedendaagse games is het in je voordeel om het op 60fps te limiten, je kaart zal daardoor minder stroom gebruiken.
Daarentegen als je oude games speelt waar de input (met name muis) nog gekoppelt is aan het aantal frames per seconde dat je haalt ingame dan is het aan te raden om het spel niet te limiten. Stel dat je in een oud spel 120fps kan halen dan kan dit ook veel soepeler aanvoelen.
Tegenwoordig is de gamelogic en input losgekoppelt van de render thread.
Heel soms (eigenlijk meer theoretisch) is het zo dat het verlagen van je framerate naar max 60fps het spel soepeler kan laten aanvoelen. Dit kan zijn omdat je bijvoorbeeld de kaart net tegen een bottleneck aanloopt. Om een voorbeeld te geven, geheugenbandbreedte. Meer fps op je scherm betekent ook dat je meer bandbreedte nodig hebt, als dit met 90fps net niet toerijkent is dan kan je een hele lichte microstuttering ervaren omdat je fps van 90 naar 50 dipt en de deltatime tussen de frames dan groot is. Hier had je op 60fps dan misschien net geen last van gehad.
Als je zoekt op het fenomeen microstuttering dan kan je hier wat meer informatie over vinden, microstuttering kan worden veroorzaakt doordat het verschil in fps in korte tijd heel groot is. Dit is niet alleen SLI/Crossfire inherent en kan ook met single gpu opstellingen voorkomen.
Ik zou mij hier geen zorgen over maken en je keuze hier ook niet van laten afhangen

.