Hallo,
Ik hoorde laatst een theorie over fps waarvan ik me afvraag of het inderdaad zo is. Ik wil nu wel eens weten hoe het zit.
Volgens deze 'theorie' zou een videokaart niet in staat zijn meer dan 28 of 30 frames per seconde weer te geven, omdat je niet meer kunt zien.
Als je gaat gamen worden dus de frames geselecteerd uit de beschikbare berkende frames.
Volgens dezelfde persoon zou windows om de zoveel seconden door fouten in timers een soort schok veroorzaken waardoor een frame niet beschikbaar is en automatisch de volgende berekende frame gepakt wordt. Een snellere videokaart zou dus volgens deze theorie verschil opleveren.
Nou is diegene waar ik het van gehoord heb een beetje een linux phreak en volgens hem zou onder linux deze 'schok' niet veroorzaakt worden, waardoor je het verschil ook minder snel merkt.
Ik geloof er eigenlijk helemaal 3x niks van.
Vooral omdat er frames geselecteerd moeten worden uit de berekende frame. Als een videokaart bijvoorbeeld 60 frames rendered dan wordt er steeds om de 2 frames 1 uitgepakt. Als er echter bijvoorbeeld 45 worden gerendered dan moet dit om de 1.5 en omdat dit niet kan moet er steeds om de 2 en dan om de 1 een frame geselecteerd worden.
Het beeld zou dan naar mijn mening heel erg vaag moeten worden.
Ik zou graag willen weten of hier inderdaad niets van klopt of hoe het nou precies zit.
Ik hoorde laatst een theorie over fps waarvan ik me afvraag of het inderdaad zo is. Ik wil nu wel eens weten hoe het zit.
Volgens deze 'theorie' zou een videokaart niet in staat zijn meer dan 28 of 30 frames per seconde weer te geven, omdat je niet meer kunt zien.
Als je gaat gamen worden dus de frames geselecteerd uit de beschikbare berkende frames.
Volgens dezelfde persoon zou windows om de zoveel seconden door fouten in timers een soort schok veroorzaken waardoor een frame niet beschikbaar is en automatisch de volgende berekende frame gepakt wordt. Een snellere videokaart zou dus volgens deze theorie verschil opleveren.
Nou is diegene waar ik het van gehoord heb een beetje een linux phreak en volgens hem zou onder linux deze 'schok' niet veroorzaakt worden, waardoor je het verschil ook minder snel merkt.
Ik geloof er eigenlijk helemaal 3x niks van.
Vooral omdat er frames geselecteerd moeten worden uit de berekende frame. Als een videokaart bijvoorbeeld 60 frames rendered dan wordt er steeds om de 2 frames 1 uitgepakt. Als er echter bijvoorbeeld 45 worden gerendered dan moet dit om de 1.5 en omdat dit niet kan moet er steeds om de 2 en dan om de 1 een frame geselecteerd worden.
Het beeld zou dan naar mijn mening heel erg vaag moeten worden.
Ik zou graag willen weten of hier inderdaad niets van klopt of hoe het nou precies zit.