Input lag niet te meten volgens reviewer ? (Sim Kranenburg)

Pagina: 1
Acties:

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 06:32

player-x

Disruptive by design

Topicstarter
reviews: Samsung 65"-JS9000: dure tv met Tizen en quantum dots
quote: Sim Kranenburg
Helaas is er nog geen handige methode om de inputlag op de volledige uhd-resolutie van 3840x2160 pixels te meten, dus moeten we het doen met een subjectieve beoordeling.
UHD input lag niet te meten????

Het is prima te meten hoor, als je gewoon een ouderwetse CRT en een camera gebruikt, dan kan je het daar prima mee meten, daar CRTs geen input lag hebben, en een GTX 960 of beter, is daar al prima voor te gebruiken.

Afbeeldingslocatie: http://tweakers.net/ext/f/9yzZA7iaQ1EaLwF6CrRi3Az8/full.jpg

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • WoutF
  • Registratie: Maart 2000
  • Laatst online: 19:33

WoutF

Hoofdredacteur
Dit is een methode die wij voorheen gebruikten voor het meten van inputlag bij full-hd-tv's, maar bij een udh-tv gaat dit natuurlijk niet werken. Want hoe wil je een uhd-signaal uitsturen naar een oude crt? dat accepteert de crt niet. Daarom zal de bron - een computer - het signaal eerst moeten downscalen naar full-hd. Dat neemt enige ms in beslag, waardoor je meting niet meer betrouwbaar is.

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 06:32

player-x

Disruptive by design

Topicstarter
Net even uitgeprobeerd met een oude 21" CRT en een 1920x1200 TN LCD beide op 1600x1200, de inputlag tussen tussen de CRT en de LCD was +/-35ms.

Test herhaald met de CRT op 640x480, en de LCD op 1920x1200 en ik kwam op minder dan paar ms extra verschil tussen beiden op de zelfde resolutie en tijdens het downscalen, want ik bleef steeds ongeveer binnen de fout marge.

Uiteraard zegt dat niet alles, want het is misschien niet het zelfde bij 4K resoluties, maar als altijd de zelfde PC er voor gebruikt wordt, was op zijn minst het verschil tussen de verschillende TVs en monitoren duidelijk geworden.

Daarnaast had men ook nVidia kunnen vragen of en hoeveel de gemiddelde extra lag is tijdens downscalen, dat kunnen ze vast wel meten in hun eigen testlab.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • Kid Jansen
  • Registratie: Oktober 2005
  • Niet online
WoutF schreef op zondag 19 april 2015 @ 10:22:
Daarom zal de bron - een computer - het signaal eerst moeten downscalen naar full-hd. Dat neemt enige ms in beslag, waardoor je meting niet meer betrouwbaar is.
Dan nog is dat beter dan niets. Ik heb gekeken wat de gemiddelde gemeten inputlag is in de laatste 25 TV reviews met inputlagtest en dat is 47,3 ms. Een paar milliseconden voor scaling is dan nauwelijks significant.

Met game beeldschermen met een totale inputlag van nog geen 5 ms, waarvan verreweg het grootste deel komt door de reactietijden van het paneel en de zuivere verwerkingstijd nihil is, is dat natuurlijk een ander verhaal. Maar de laagste inputlag van die 25 geteste TV's is 18,4 ms, überhaupt zit maar een kwart van de TV's die getest zijn onder de 33 ms (2 frames op 60 Hz).

Acties:
  • +1 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 15:56

|sWORDs|

vSphere/ESXi

Waarom zou het een clone moeten zijn? Je kunt een counter toch ook op twee schermen tonen?

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • _eXistenZ_
  • Registratie: Februari 2004
  • Laatst online: 23-05 20:48
Je kunt 2 schermen gewoon beiden hun native reso geven en op beide dezelfde klok tonen... CRT op 1600x1200, UHDTV op 4K, en inputlaggen maar!

There is no replacement for displacement!


Acties:
  • 0 Henk 'm!

  • Kid Jansen
  • Registratie: Oktober 2005
  • Niet online
Dat werkt in ieder geval niet met SMTT 2.0, wat Tweakers gebruikte voordat ze overstapten op de Leo Bodnar Video Signal Input Lag Tester.

Als je met timers en fotocamera werkt is SMTT 2.0 verreweg de beste methode. Dat tooltje is ontwikkeld door Thomas Thiemann, die ook een tijd heeft gewerkt bij PRAD. Denk dat er weinig mensen zijn met meer verstand van input lag meten dan hij.

Acties:
  • 0 Henk 'm!

  • Sim
  • Registratie: September 2001
  • Laatst online: 26-08-2024

Sim

><(((º>

Een videokaart signaal laten uitsturen op twee verschillende resoluties vind ik geen acceptabele optie omdat ik niet precies kan meten hoe lang de kaart over het schalen doet. Er komt voorlopig geen uhd-versie van de Leo Bodnar-tester en dat is jammer maar voorlopig geen grote ramp..
Gameconsoles zullen de komende jaren nog op 1080p60 werken en het aantal mensen wat met een pc aan een uhdtv gamed zal voorlopig nog klein zijn. En als je wel op de volledige uhd-resolutie wil gamen dan is het behalen van een acceptabele framerate voorlopig nog een flinke uitdaging.

Als we op een andere methode van meten overgaan vind ik dat deze zowel voor 1080p60 als 2160p60 op dezelfde wijze moet werken. We zullen gewoon nog even geduld moeten hebben totdat er een betrouwbare methode is om inputlag te meten op 2160p60..

Acties:
  • 0 Henk 'm!

  • SinergyX
  • Registratie: November 2001
  • Laatst online: 18:56

SinergyX

____(>^^(>0o)>____

WoutF schreef op zondag 19 april 2015 @ 10:22:
Dit is een methode die wij voorheen gebruikten voor het meten van inputlag bij full-hd-tv's, maar bij een udh-tv gaat dit natuurlijk niet werken. Want hoe wil je een uhd-signaal uitsturen naar een oude crt? dat accepteert de crt niet. Daarom zal de bron - een computer - het signaal eerst moeten downscalen naar full-hd. Dat neemt enige ms in beslag, waardoor je meting niet meer betrouwbaar is.
Je neemt een 4K PC monitor, meet de latency tov een CRT, dan heb je je basis voor de 4K PC monitor. Deze zet je tegen een TV, daar is je absolute latency tov een CRT :)

En daarbij kan je een test doen op bv 800x600 om te kijken of resolutie op een PC monitor effect heeft.

edit, downscalen vergeten.. laat maar :$

[ Voor 9% gewijzigd door SinergyX op 21-04-2015 10:47 ]

Nog 1 keertje.. het is SinergyX, niet SynergyX
Im as excited to be here as a 42 gnome warlock who rolled on a green pair of cloth boots but was given a epic staff of uber awsome noob pwning by accident.


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 06:32

player-x

Disruptive by design

Topicstarter
Sim schreef op dinsdag 21 april 2015 @ 10:43:
Er komt voorlopig geen uhd-versie van de Leo Bodnar-tester en dat is jammer maar voorlopig geen grote ramp..
Iets meten is beter dan niets meten, als men een CRT op welke vaste resolutie dan ook vergelijkt met de input lag van een 4K beeld met een camera dan heeft men gewoon een standaard test.

Dat men niet pressies weet wat de pressiese Input lag is maakt niet uit, men kan namelijk iig de verschillen tussen 4K TVs (en monitoren) met elkaar vergelijken.

Want wat jij nu zegt komt eigenlijk hier op neer, ik weet niet hoe snel ik mij beweeg in mijn auto, ook al geeft de km teller aan dat ik 100km/u rij, want planeet aarde en zijn hele zonnestelsel beweegt zich met een onbekende snelheid door de ruimte.

Maar voor mij is al dat irrelevant, ik wil gewoon weten hoeveel lag TV X ten opzichte van TV Y heeft.

En als er geen nieuwe Leo Bodnar-tester uit komt, waarom dan niet zelf een Leo Bodnar-tester maken, en zo moeilijk is het ook weer niet, klein scriptje schrijven, dat (een deel van) het beeld van zwart naar wit laat gaan, en dan meten hoelang het duurt voordat de foto-sensor een trigger signaal geeft.

Een (oude) PC met een PCIe slot en een native RS-232 aansluiting, en een GTX 960 kaart, en wat kennis van het Elektronica forum hier, dan kom je een heel eind.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • The Eagle
  • Registratie: Januari 2002
  • Laatst online: 15:51

The Eagle

I wear my sunglasses at night

player-x schreef op dinsdag 21 april 2015 @ 11:32:
[...]

Iets meten is beter dan niets meten, als men een CRT op welke vaste resolutie dan ook vergelijkt met de input lag van een 4K beeld met een camera dan heeft men gewoon een standaard test.
ben ik niet met je eens. Als je iets meet is dat leuk, maar dat kan in het kader van significatie kant nog wal raken. Als ik voltage AC wil meten ga ik toch ook niet uit van voltage DC "want dat voldoet ook" :?
Dat men niet pressies weet wat de pressiese Input lag is maakt niet uit, men kan namelijk iig de verschillen tussen 4K TVs (en monitoren) met elkaar vergelijken.
Als je structureel de zelfde basis gebruikt en die ook in de toekomst blijft gebruiken, heb je idd een punt. Maar alleen omdat je referentie gelijk is. Als er in de toekomst een andere test komt waarmee je wel objectief de lag kunt meten is je referentie van al je oude tests niks meer waard en mag je die testresultaten allemaal over doen.
Want wat jij nu zegt komt eigenlijk hier op neer, ik weet niet hoe snel ik mij beweeg in mijn auto, ook al geeft de km teller aan dat ik 100km/u rij, want planeet aarde en zijn hele zonnestelsel beweegt zich met een onbekende snelheid door de ruimte.

Maar voor mij is al dat irrelevant, ik wil gewoon weten hoeveel lag TV X ten opzichte van TV Y heeft.

En als er geen nieuwe Leo Bodnar-tester uit komt, waarom dan niet zelf een Leo Bodnar-tester maken, en zo moeilijk is het ook weer niet, klein scriptje schrijven, dat (een deel van) het beeld van zwart naar wit laat gaan, en dan meten hoelang het duurt voordat de foto-sensor een trigger signaal geeft.

Een (oude) PC met een PCIe slot en een native RS-232 aansluiting, en een GTX 960 kaart, en wat kennis van het Elektronica forum hier, dan kom je een heel eind.
Als je op dit moment zo objectief mogelijk wilt testen, lijkt het mij het handigste om dat te doen mbv interpolatie. test op een aantal resoluties de lag, en interpoleer dat naar UHD. Ik denk dat je voorspelling dan beter is dan simpelweg een referentie nemen die op los zand gebaseerd is. Op basis van lagere resoluties en wat technische gegevens (kloksnelheden, verversingssnelheden, resoluties, RAMDAC specs, etc) zou je een formule kunnen maken die je kunt gebruiken om de UHD lag te berekenen. Dan werk je iig met vaste waarden. Lijkt mij een stuk objectiever :)

Al is het nieuws nog zo slecht, het wordt leuker als je het op zijn Brabants zegt :)


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 06:32

player-x

Disruptive by design

Topicstarter
The Eagle schreef op dinsdag 21 april 2015 @ 11:47:
ben ik niet met je eens. Als je iets meet is dat leuk, maar dat kan in het kader van significatie kant nog wal raken. Als ik voltage AC wil meten ga ik toch ook niet uit van voltage DC "want dat voldoet ook" :?
Appels en peren, als je 10 mensen laat hardlopen, en als je ze laat die over een onbekende afstand hardlopen, dan weet je misschien dan wel niet hoe hard ze hebben gelopen, maar je weet wel welke de snelste en langzaamste is.
Als je structureel de zelfde basis gebruikt en die ook in de toekomst blijft gebruiken, heb je idd een punt. Maar alleen omdat je referentie gelijk is. Als er in de toekomst een andere test komt waarmee je wel objectief de lag kunt meten is je referentie van al je oude tests niks meer waard en mag je die testresultaten allemaal over doen.
Nee hoor, je kan gewoon de verschillende test met elkaar vergelijken, en de test data van de oudere test omrekenen naar de nieuwe.
Lijkt mij een stuk objectiever :)
En ik denk dat als men uiteindelijk gaat meten, de vertraging van downscalings met een videokaart verwaarloos baar zal zijn.

Ik geloof ook dat er veel te veel over het probleem wordt nagedacht, en men problemen ziet die er niet zijn.

Want gewoon een de lag meten met een CRT geeft imho een prima vaste waarde, en maakt het voor de rest niet uit of up/downscaling zelfs enig relevante vertraging introduceert.
player-x schreef op zondag 19 april 2015 @ 12:22:
Daarnaast had men ook nVidia kunnen vragen of en hoeveel de gemiddelde extra lag is tijdens downscalen, dat kunnen ze vast wel meten in hun eigen testlab.
Ze kunnen iig vertellen of er zelfs maar mogelijk een verschil in lag kan zijn tussen verschillende meting.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • Kid Jansen
  • Registratie: Oktober 2005
  • Niet online
The Eagle schreef op dinsdag 21 april 2015 @ 11:47:
...dat te doen mbv interpolatie. test op een aantal resoluties de lag, en interpoleer dat naar UHD.
Dan heb je nog steeds dat je allemaal non-native resoluties test en dat interpoleert naar native.

Ik denk dat het verschil tussen 640x480 en 2560x1440 bijvoorbeeld verwaarloosbaar zal zijn op een 4K scherm en dat het verschil tussen 640x480 en 4K en dus ook het verschil tussen 2560x1440 en 4K een stuk groter is en ook vrijwel gelijk.

Niet als kloon draaien en verschillende resoluties gebruiken is dan misschien nog het beste, maar het zal dan waarschijnlijk lastig zijn om de timers perfect synchroon te laten lopen.

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 06:32

player-x

Disruptive by design

Topicstarter
Kid Jansen schreef op dinsdag 21 april 2015 @ 12:35:
maar het zal dan waarschijnlijk lastig zijn om de timers perfect synchroon te laten lopen.
Dat is sowieso onmogelijk, een CRT is een analoog systeem zonder bewerkingen die een signaal vertraging oplevert, om het heel erg te versimpelen, de werking van een CRT is te vergelijken met een lamp en een licht schakelaar.

Terwijl een digitaal DVI/DP/HDMI omgezet en bewerkt moet worden, voordat het weergegeven kan worden op een LCD scherm, vandaar dat LCDs altijd een hogere lag heeft dan CRTs.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • Kid Jansen
  • Registratie: Oktober 2005
  • Niet online
Ik bedoel natuurlijk synchroon met aansturing, niet met weergave. Dat het met weergave niet synchroon is snap ik, dat is dan ook precies de reden dat we input lag tests uitvoeren.

Acties:
  • 0 Henk 'm!

  • Sim
  • Registratie: September 2001
  • Laatst online: 26-08-2024

Sim

><(((º>

Het lijkt me erg lastig om met een eigen pc-knutselproject een betrouwbare inputlag-meting te maken. De Leo Bodnar oplossing is in mijn ogen veruit de beste omdat je met custom hardware gewoon over de timing van het videosignaal kan beschikken.

Als je een sensor via rs232 aan een pc hangt introduceer je mijns inziens gelijk een flinke afwijking in je timing.

Op een gegeven moment komt er vast wel een nieuwe versie van de Bodnar-lagtester waarbij je verschillende resoluties zal kunnen kiezen..

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 06:32

player-x

Disruptive by design

Topicstarter
Sim schreef op dinsdag 21 april 2015 @ 15:01:
Als je een sensor via rs232 aan een pc hangt introduceer je mijns inziens gelijk een flinke afwijking in je timing.
En hoe denk je dat de Leo Bodnar tester dan werkt?
Die werkt op pressies de zelfde manier.

Ik zou als ik jouw was eens op het Elektronica forum vragen wat zij denken, naar mijn ervaring is de kennis daar behoorlijk hoog, en die kunnen er meer over zeggen dan wij zonder echte elektronica achtergrond.
Op een gegeven moment komt er vast wel een nieuwe versie van de Bodnar-lagtester waarbij je verschillende resoluties zal kunnen kiezen..
En tot dan hebben we maar geen lag waarde?

Als men nu een 4K TV van +3000 euro koopt dan zullen de meeste mensen die vast en zeker +5 jaar blijven gebruiken, dat is binnen de grens dat nieuwe consoles uit komen, voor mensen die veel gamen is dat best een waarde die men wil weten, als ik nu een TV zou kopen, zou dat iig een van de waardes zijn die voor mij belangrijk is.

En voor mij geeft de CRT methode iig een hoop meer informatie dan het gebrek aan informatie dat we nu hebben.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • Sim
  • Registratie: September 2001
  • Laatst online: 26-08-2024

Sim

><(((º>

player-x schreef op dinsdag 21 april 2015 @ 20:17:
[...]

En hoe denk je dat de Leo Bodnar tester dan werkt?
Die werkt op pressies de zelfde manier.
De Leo Bodnar lagtester is natuurlijk geen pc..

In een pc heb je te maken met een hele hoop verschillende klokken; zo heeft een videokaart een eigen klok aan boord en werkt je cpu weer op een totaal ander kloksignaal en tussen de verschillende onderdelen van een pc zitten bussen die elk een eigen timing hebben.

Het mooie van de Bodnar tester is dat deze wel op één kloksignaal werkt waar het videosignaal mee gegenereerd wordt en ook de meting van de inputlag werkt op hetzelfde kloksignaal.


En nogmaals; er is geen CRT die 2160p60 kan weergeven en een lagtest wil je doen met een IDENTIEK videosignaal dus helaas is de goeie oude beeldbuis niet geschikt voor betrouwbare lagmetingen aan uhd-televisies.

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 06:32

player-x

Disruptive by design

Topicstarter
Sim schreef op woensdag 22 april 2015 @ 10:43:
De Leo Bodnar lagtester is natuurlijk geen pc..
Nou volgens mij is het zeker wel min of meer een PC, zal vast smartphone achtige apparaat zijn, met een ARM processor een camera/sensor en een HDMI uit.
In een pc heb je te maken met een hele hoop verschillende klokken; zo heeft een videokaart een eigen klok aan boord en werkt je cpu weer op een totaal ander kloksignaal en tussen de verschillende onderdelen van een pc zitten bussen die elk een eigen timing hebben.
En hoe zijn die verschillende klokken ook maar enig zins relevant daar de meeste daarvan op een klok van nano en zelfs picoseconden werken, en zo ver ik het kan zien geen invloed heeft op een meting in milliseconden.
En nogmaals; er is geen CRT die 2160p60 kan weergeven en een lagtest wil je doen met een IDENTIEK videosignaal dus helaas is de goeie oude beeldbuis niet geschikt voor betrouwbare lagmetingen aan uhd-televisies.
Identieke videosignaal zijn uiteraard wenselijk, maar zelfs als er met verschillende videosignalen word gewerkt, wat is het probleem?

Het is nagenoeg zeker zo dat er niet opeens verschil in vertraging zal zijn, tussen 2160p60 en 1200p60, een IDENTIEKE test is voor mij iig al meer dan voldoende.

Wederom, nu hebben we in zijn geheel geen informatie over hoeveel de input lag is op 2160p, persoonlijk wil ik gewoon weten of een bepaald model een hoge of lage input lag heeft ten opzichte van de andere TVs.

En hoe nauwkeurig dat getal in absolute tijd is, maakt me niet erg veel, zolang de onderlinge verschillen maar nauwkeurig genoeg woorden weergegeven in de test.

Zoals ik al eerder zij, als je 10 mensen laat hardlopen, en je laat ze die over een onbekende afstand hardlopen, dan weet je misschien dan wel niet hoe hard ze hebben gelopen, maar je weet wel welke de snelste en langzaamste is, en wat de onderlinge verschillen zijn in eind tijd.

[ Voor 35% gewijzigd door player-x op 22-04-2015 11:32 ]

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • Sim
  • Registratie: September 2001
  • Laatst online: 26-08-2024

Sim

><(((º>

Ik zou ook graag de lag op 2160p60 meten maar daar is op dit moment simpelweg geen betrouwbare methode voor waarvan de resultaten zich goed laten vergelijken.

Met de Leo Bodnar lagtester hebben we nu een prachtige test die door verschillende websites wordt gebruikt waardoor resultaten prima vergeleken kunnen worden.

Een knutselproject met een pc zal sowieso totaal ander resultaten opleveren waardoor vergelijken onmogelijk wordt.

Als iemand een goede test uitvindt op basis van een pc gaan we die zeker gebruiken maar de oude methode met het fotograferen van een crt ernaast vindt ik een achteruitgang ten opzichte van wat we nu doen.

En nogmaals mensen die een gameconsole gebruiken met een tv zijn er in overvloed (en voor deze mensen is de huidige test gewoon goed) maar mensen die gamen op een uhdtv met een pc zijn er nauwelijks en ook voor deze mensen is de test op 1080p een aardige indicatie.

Acties:
  • 0 Henk 'm!

  • SA007
  • Registratie: Oktober 2002
  • Laatst online: 20:32

SA007

Moderator Tweaking
Een hardware en software teller op een normaal systeem met milliseconde resolutie gelijk laten lopen is niet zo'n probleem hoor.

Groter probleem is de delay tussen 'ik zet 100ms op het scherm' en 'er komt een beeld met 100ms uit de videoconnector'.
Die delay is waarschijnlijk een stuk lastiger te voorspellen.

Een sensor welke vervolgens meet wanneer dit signaal binnen komt en er een tijd aan knoopt is ook het probleem niet.
Gaat vooral om welke meting je nou intresse in hebt.
Hoeveel van de lag tussen 'programma zegt x' en 'beeld zegt x' is het beeldscherm en hoeveel is de videodriver/videokaart/kabels/whatever.
Pagina: 1