Klopt dit? Volgens mij is dat alleen op AppleTV het geval (geweest?)?
waardoor er maar 'ongeveer' de helft van de bandbreedte van H.264 nodig is voor een vergelijkbare kwaliteit.
Dit valt niet zo makkelijk te stellen? Alles is afhankelijk van het beeld / bronmateriaal (semi statistisch studiobeeld bv laat zich beter comprimeren dan bewegende camerabeelden die auto's die 300KM/u rijden volgen). Om nog maar te zwijgen over de snelheid waarmed dat kan. Live uitzendingen wil je zo snel mogelijk van bv raw naar h.265. Waarbij een keuze gemaakt zal moeten worden tussen efficiente compressie en zo snel mogelijk output hebben. Nog los van allemaal zaken als dat je bij een opname ook weer "voorspellend" kunt werken (als in: je weet naar welk beeld je toe gaat, live weet je alleen het huidige frame en de afgelopen X frames, bij een opname achteraf weet je ook de komende X frames).
En dat h.265 beter is is dan h.264 moge duidelijk zijn, maar "de helft" valt niet zomaar te stellen.
Een 1080p stream kost F1TV nu ongeveer 7Mbps. Netflix gebruikt voor 4K streams ergens tussen de 15-20Mbps. Dat is twee keer zoveel als nu, maar niet onmogelijk. Aangezien een 4K stream 4 keer 1080p is, schaalt dit algoritme dus wel erg goed.
Ook daar valt eigenlijk niet veel over te zeggen. Ik denk niet dat een video van een volledig groen vlak in 1080p in h.265. Zoveel groter of kleiner is dan eenzelfde video in 4k in h.264. Zoals al aangehaald is compressie afhankelijk van het type beeld. En daaraan gerelateerd ook de presets / gebruikte pipeline. Video codecs zijn heel slim in het bepalen hoe zaken overgebracht worden. Zo kan min of meer ook in een video verwerkt worden dat een object door het beeld beweegt, zonder continu opnieuw de kleuren van alle pixels opnieuw door te geven / op te slaan (dus zeg maar "de pixels tussen deze coördinaten schuiven X pixels op"). Hoe goed de video pipeline deze zaken kan verwerken in de "compressie" is dus weer afhankelijk van CPU kracht, beschikbare tijd, instellingen.
Zie bv al het simpele scenario dat video streaming van op een PC vaak via de GPU wordt gedaan. Dit omdat een GPU dit snel (/efficiënt) kan, live. Maar bv het rippen / transcoden van videobestanden wordt via de CPU gedaan, omdat dit altijd een beter resultaat geeft. Nuet alleen doordat bij het transcoden van een bestand alle / meer informatie beschikbaar is, maar ook doordat een GPU maar met een vaste pipeline / set instellingen werkt. En die ene set instellingen is dus okay-ish voor veel maar nergens echt goed in. Terwijl met software transcoding (op de CPU) de hele video eerst geoptimaliseerd kan worden én een pipeline kan worden opgesteld (dynamisch) die bij het soort beeld past.