O, 16K gaat ongetwijfeld ook komen, net zoals er foto sensoren zijn van 108 megapixels. Maar het gros van de sensoren, inclusief de professionele, zit op of onder de 24MP. Het gaat om wat zinvol is voor een standaard tv.
In een tijdperk dat consumenten de (sa)cd en dvd en bluray disc vaarwel zeggen en overstappen op streaming met een veel lagere bitrate, is 8K belachelijk.
Maar dat terzijde is 8K op een 65” scherm maar 135 pixels per inch. Dat is echt vrij weinig. Ja, afstand speelt een rol, maar die rol is nogal overstated en verkeerd geïnterpreteerd.
Die gaan over wanneer je geen losse pixels meer kan zien, niet wanneer je geen verschil in scherpte kan zien.
135ppi is weinig, maar je zit niet met je neus op het scherm, maar zit er zo'n 4 meter vanaf.
En ik weet dat het zinvol is om meer pixels te laten zien dan je kunt onderscheiden. Qua resolutie is FHD voldoende, maar mijn 4K tv heeft veel beter beeld dan mijn oude FHD tv. Dat komt grotendeels door local dimming met veel zones, daarna door HDR, maar ook een klein deel door 4K. Van de stap naar 8K verwacht ik weinig.
Je kan het heel simpel testen met games als je een PC aan een TV (of monitor hangt). Als je een game dan op 720p zet en je gaat er wat vanaf zitten totdat je de pixels niet meer ziet, en je veranderd daarna de resolutie naar 4K, zal je direct opvallen dat ondanks dat je niet meer of minder pixels ziet, het beeld wel degelijk aanzienlijk scherper is. Het 720 beeld is dan wazig of fuzzy ondanks dat je geen pixels ziet.
Met audio is overigens iets soortgelijks aan de hand. We kunnen tot ongeveer 20 kHz horen. Dat is de grens van de cd. DAT gaat tot 24 kHz (48 kHz samples). Er zijn (onhoorbare) harmonischen die invloed hebben op de hoorbare tonen. Vandaar dat het zinvol is om tot 96 kHz samples (max 48 kHz geluid) te gaan. Ik hoor geen verschil tussen 96 kHz en 192 kHz samples (max SACD / DTS-HD) op zeer goede speakers. En ik vraag me af of het te horen is, het is nauwelijks te meten.
Voor film en tv zal 8K vooralsnog weinig verschil maken tenzij je een 85”+ tv hebt (mede omdat enkel het feit dat een camera sensor 8K kan opnemen dit nog niet betekend het (mede ivbm de lens) daadwerkelijk 8K aan detail resolved - dit zullen alleen de beste duurste camera’s doen). Voor games zal het verschil echter direct opvallen. En ja 8K gamen is zwaar; maar dat wordt vanzelf realistisch.
Elke nieuwe display technologie zijn er mensen die zeggen “maar het menselijk oog kan het niet eens zien!!”, bijvoorbeeld bij refresh rate hoger dan 60hz. Maar steeds is het zo dat als meer mensen het daadwerkelijk gebruikt hebben het blijkt dat mensen het verschil prima kunnen zien. Ik heb zelfs voordat 60hz de standaard was nog eens een discussie met iemand moeten hebben die dacht dat je hoger dan 25hz niet kon zien. Er is heel veel informatie maar het meeste wordt verkeerd geïnterpreteerd. (In het geval van 25hz was het dus dat je vanaf die refresh rate een beeld als aaneensluitend ervaart, niet zozeer dat je hoger dan dat niet kan zien)
Het is al decennia bekend dat een refresh rate van minimaal 70 Hz voor een rustiger beeld zorgt. Daarom had de Atari ST destijds ook een monochrome paperwhite scherm met een refresh rate van net boven de 70 Hz, en ik merk het dat ik minder snel vermoeid word met m'n thuiswerk scherm op 75 Hz.
Ook hier zul je waarschijnlijk verbeteringen zien tot 120 Hz, daarboven kun je over discussiëren. IMHO is het zinloos, overtuig me van het tegenovergestelde!
Met andere woorden: laten we discussiëren over welk probleem je denkt op te lossen met 8K video. Kom je er niet uit, dan gewoon niet doen.