Beste mensen,
Een videokaart, bijvoorbeeld de Ati Radeon 5750, scoort heel hoog op de HQV 2.0 score met 197 punten (goed in postprocessing).
Echter als je een film wil encoderen, dan kun je dit beter met een CPU doen, omdat deze serieel en 'slimmer' is dan een GPU (parallel en 'dommer'). Geld dat dan ook voor het decoderen?
Scoort een CPU, zoals een Core i7 980 dan sowieso hoger dan een GPU als deze met behulp van een softwarematige codec wordt aangestuurd?
Als je bijvoorbeeld "Pure Video" gebruikt van Nvidia, dan spreek je over hardwarematig decoderen. Maar zoiets wordt toch altijd softwarematig aangestuurd? Zitten daar dan hardwarematige transistorcircuits in die niet in een CPU zitten en heel goed zijn in een bepaald postprocessingsonderdeel?
Hopelijk kunnen we hier eens een goed topic van maken en een gedegen verdieping aanbrengen, zodat duidelijk wordt wat de verschillen zijn, voor- en nadelen en hoe het min of meer werkt.
Een videokaart, bijvoorbeeld de Ati Radeon 5750, scoort heel hoog op de HQV 2.0 score met 197 punten (goed in postprocessing).
Echter als je een film wil encoderen, dan kun je dit beter met een CPU doen, omdat deze serieel en 'slimmer' is dan een GPU (parallel en 'dommer'). Geld dat dan ook voor het decoderen?
Scoort een CPU, zoals een Core i7 980 dan sowieso hoger dan een GPU als deze met behulp van een softwarematige codec wordt aangestuurd?
Als je bijvoorbeeld "Pure Video" gebruikt van Nvidia, dan spreek je over hardwarematig decoderen. Maar zoiets wordt toch altijd softwarematig aangestuurd? Zitten daar dan hardwarematige transistorcircuits in die niet in een CPU zitten en heel goed zijn in een bepaald postprocessingsonderdeel?
Hopelijk kunnen we hier eens een goed topic van maken en een gedegen verdieping aanbrengen, zodat duidelijk wordt wat de verschillen zijn, voor- en nadelen en hoe het min of meer werkt.