Ik heb zitten kijken naar het kopen van een videokaart om te renderen, bijvoorbeeld met Blender.
Nou dacht ik eigenlijk dat GPU's ontzettend veel sneller waren dan CPU's, omdat ze alles parallel kunnen doen. Maar bijvoorbeeld in het onderstaande filmpje vergelijken ze een Pentium G4560 processor met een GTX1050ti, een van de goedkopere Intel processoren tegen een paar keer duurdere videokaart met extra "ti" rekenkracht:
YouTube: Blender Test G4560 vs GTX 1050ti
De GPU rendert in 104 seconden, de CPU dezelfde afbeelding in 160 seconden, oftewel de GPU is maar zo'n 35% sneller dan de CPU.
Waarom kan een videokaart niet tientallen afbeeldingen per seconde renderen, zoals dat tijdens het spelen van games blijkbaar wel lukt? En is de performance (in Blender) uit het filmpje typisch voor alle GPU's?
Nou dacht ik eigenlijk dat GPU's ontzettend veel sneller waren dan CPU's, omdat ze alles parallel kunnen doen. Maar bijvoorbeeld in het onderstaande filmpje vergelijken ze een Pentium G4560 processor met een GTX1050ti, een van de goedkopere Intel processoren tegen een paar keer duurdere videokaart met extra "ti" rekenkracht:
YouTube: Blender Test G4560 vs GTX 1050ti
De GPU rendert in 104 seconden, de CPU dezelfde afbeelding in 160 seconden, oftewel de GPU is maar zo'n 35% sneller dan de CPU.
Waarom kan een videokaart niet tientallen afbeeldingen per seconde renderen, zoals dat tijdens het spelen van games blijkbaar wel lukt? En is de performance (in Blender) uit het filmpje typisch voor alle GPU's?
„Ik kan ook ICT, want heel moeilijk is dit niet”