Wat niet noodzakelijk uitmaakt, het is maar net afhankelijk van welke monitor je gebruikt. Wat minder slecht is, 40-50 FPS met FreeSync of 50-62 FPS me tearing, ik weet het eerlijk gezegd niet. Het hangt voor mij ook van het spel af, er zijn spellen die ik zeker liever met 40-50 FPS speel dan met tearing maar voor een FPS spel zou ik wellicht toch kiezen 50-62 FPS met elke seconde tears.
Belangrijker, beide opties zijn verre van ideaal. Beter is om 4k met medium/hoge instellingen te spelen of 1440p met hoge/zeer hoge instellingen (afhankelijk van het spel en de instelling). Dan krijg je de keuze tussen bijvoorbeeld 72 FP{S met FreeSync en 90 FPS zonder FreeSync en G-Sync. Dan kies ik toch liever voor het eerste, zonder enige twijfel.
Voor de komende paar jaar is m.i. 1440p met Vega54 het meest interessant, de 4k monitors zijn nog te duur als je een goede verversingsfrequentie wil hebben en veel spellen zijn niet goed gemaakt voor 4k-resolutie (scaling-problemen). De Vega54 levert meer waarde per euro dan de Vega64 en het is best mogelijk dat je Vega54 hoger gaat kunnen klokken dan Vega64 omdat het vermogen een probleem wordt voor deze kaarten. De laatste tijd hoor je van alles over nieuwe high refresh rate monitors die uitkomen van Samsung, LG, Asus en Acer (fijn dat Samsung en LG eindelijk eens meedoen), eind 2017 of begin 2018 zou wel eens een heel erg goed moment kunnen zijn om een 1440p scherm te kopen. Voor HDR lijkt het helaas nog te vroeg te zijn, er bestaat minstens 1 scherm die >300 lichtsegmenten heeft maar daar betaal je flink voor. Het aantal lichtsegmenten van die van Samsung is zo klein dat ik me afvraag of dat dat niet problemen geeft. Bovendien is het ecosysteem (Windows, browsers, andere software) nog slecht voor HDR-schermen.
DaniëlWW2 schreef op zondag 13 augustus 2017 @ 17:33:
[...]
Nee, dat was stupid van mij. Gebeurd wel eens.
[...]
Bij BF1 speelt meer dan die game last heeft van drops, zeker bij een i5. Een 7700K zit al snel tegen de 100% utilisatie op alle threads. Oke, draait dan alsnog met gemak over de 100 frames met een GTX1080 ofzo. Ik vraag mij eigenlijk af of de RX Vega en Ryzen combinatie het opvallend beter zou doen dan een RX Vega of GTX1080 en een 7700K. Maar dat is eigenlijk meer BF1 specifiek. Voor nu zijn benches welkom, naast BF1 elke andere game die je kan bedenken.

@
Foritain
Ik verwees er al eerder naar, de 6600k haalt met een hele stevige overklok (4,5/4,6 GHz) bij veel spellen al 100% CPU-load. Onder andere voor GTA5, BF1 en Rise of the Tomb Raider.
Hij laat hier netjes de overlay met CPU-load zien voor zowel de 6600k en de Ryzen-CPU die hij momenteel gebruikt.
De 7700k heeft iets meer headroom dankzij de iets hogere klokfrequentie (4,8 GHz als je stevig overklokt en niet delidt?) en de hyperthreading maar het is duidelijk dat de marge niet groot is. Die iets grotere overklok mag je verwaarlozen (<=5%) en de hyperthreading mag je in het beste geval gelijk stellen aan 25% winst. Er zijn eerder ook benchmarks verschenen waarin je zag dat de 7700k aan 100% CPU load geraakt, met name bij multiplayer voor spellen zoals BF1. Je kan prima 100 FPS en tegelijkertijd regelmatig microstutter hebben, het een sluit het ander niet uit. Daarom moeten we ons niet blindstaren op die ene parameter. Kijk naar de framerendertijdplots en je haalt dat er direct uit. Speel het spel gewoon in plaats van een in game benchmark te draaien en je haalt dat er direct uit. Tenslotte is het nog de vraag of dat X FPS bij Ryzen dezelfde inputlag veroorzaakt als X FPS bij Skylake. Om dat te weten moet je o.a. kijken naar de chipset. Misschien is het verschil niet relevant (misschien wel) maar om nu direct aan te nemen dat meer FPS per se een betere game-ervaring geeft wat de meeste reviewers lijken te doen is wel heel erg gemakkelijk, dat mogen ze even onderbouwen.

Ik vraag me oprecht af of dat het voor reviewers te gemakkelijk is gemaakt om de FPS te krijgen, dat hebben ze zo gemakkelijk gemaakt (ook voor ons) dat ze daar maar meteen naar grijpen in plaats van wat verder te graven. Het maken van framerendertijdplots is moeilijker, kost meer tijd en gebeurt daarom weinig terwijl het wel veel meer informatie geeft omdat je elke individuele frame die gigantisch piekt eruit kan halen. Het gaat natuurlijk enkel om in game, niet om pieken die veroorzaakt worden door laden of zo.
[
Voor 41% gewijzigd door
Verwijderd op 13-08-2017 18:09
]