Meer dan wat "de FPS gamer" ziet? o_O
Verder hebben jullie het over de "spikes" in de FCAT plots, terwijl dat juist
geen microstuttering is. Dat zijn gewoon keiharde stutters.
Microstuttering speelt zich
binnen de seconde af. Op zo'n FCAT plot over 30 seconden zie je dat niet direct aan piekjes. Daarom hoor je bij dat soort grafiekjes ook gewoon de standaard deviatie te krijgen, percentielen of in elk geval iets waarmee je iets nauwkeurigere cijfers krijgt.
Neem bijvoorbeeld Sniper Elite 4 uit die Guru3D review.
Ziet er op het eerst oog goed uit, echter zijn de frametijden bij SLI weldegelijk een stuk onstabieler dan met single GPU. Dat zie je aan de "dikte" van de lijn. Met name van 20 tot 25 seconden is die een stuk dikker en heb je daar gewoon aardig wat microstuttering.
BF1 op DX12 uit diezelfde review is een nog veel beter voorbeeld:
Even los van de grote pieken, is zelfs tussen die pieken de lijn een stuk dikker. Van 20 tot 30 seconden varieert de frametijd daar gewoon van wat zo'n 5ms lijkt te zijn, tot 8-9 ms met daarnaast ook nog eens keiharde stutters tot 10ms of hoger.
Dat is alle behalve soepel en iemand die daar gevoelig voor is (ik bijvoorbeeld) zal zich daar mateloos aan irriteren. En dat is ook meteen de clou van het verhaal: niet iedereen vindt het storend. Niet iedereen ziet dat. Degenen die het niet zien, zien over het algemeen het verschil tussen 60 en 120/144 FPS ook niet. Sterker nog, veel van die mensen zien niet eens het verschil tussen macOS en Windows, waarbij eerstgenoemde de 60 FPS nooit haalt en de UI er daardoor in mijn ogen "laggy" uit ziet.
SLI/CFX is vooral boeiend op extreem hoge resoluties zoals waar @
edward2 op speelt. Je frametijden liggen dan sowieso al een stuk hoger, maar zullen ook relatief constant zijn waardoor je een stuk minder microstuttering hebt. Wil je op 120/144 gamen, kun je juist beter geen SLI/CFX nemen omdat je juist dan waarschijnlijk dusdanige framerates kunt halen dat de frametijden juist wel erg variëren. En zelfs 1-2ms variatie kan dan al funest zijn, omdat dat het verschil kan maken tussen wel of geen tearing (zonder V-Sync) of tussen een frame input lag (met V-Sync). Op 144 Hz heb je immers slechts net geen 7ms tussen frames. 1ms is dan al meteen 14,29% van je totaal beschikbare tijd tussen frames.
Having said that, ga je naar triple-GPU (voor zover dat nog kan

) dan wordt het weer een ander verhaal. Zonder al te veel in detail te treden, kun je dan door middel van onder andere buffering microstuttering weer afvangen. Het schaalt minder lekker wat gemiddelde en maximale framerate betreft, voor de
ervaring is het soepeler dan dual-GPU.