Zijn videokaarten traag in Blender ?

Pagina: 1
Acties:

Vraag


Acties:
  • 0 Henk 'm!

  • aawe mwan
  • Registratie: December 2002
  • Laatst online: 20:15

aawe mwan

Wat ook leuk is:

Topicstarter
Ik heb zitten kijken naar het kopen van een videokaart om te renderen, bijvoorbeeld met Blender.

Nou dacht ik eigenlijk dat GPU's ontzettend veel sneller waren dan CPU's, omdat ze alles parallel kunnen doen. Maar bijvoorbeeld in het onderstaande filmpje vergelijken ze een Pentium G4560 processor met een GTX1050ti, een van de goedkopere Intel processoren tegen een paar keer duurdere videokaart met extra "ti" rekenkracht:

YouTube: Blender Test G4560 vs GTX 1050ti

De GPU rendert in 104 seconden, de CPU dezelfde afbeelding in 160 seconden, oftewel de GPU is maar zo'n 35% sneller dan de CPU.

Waarom kan een videokaart niet tientallen afbeeldingen per seconde renderen, zoals dat tijdens het spelen van games blijkbaar wel lukt? En is de performance (in Blender) uit het filmpje typisch voor alle GPU's?

„Ik kan ook ICT, want heel moeilijk is dit niet”

Beste antwoord (via aawe mwan op 19-03-2018 06:28)


  • maratropa
  • Registratie: Maart 2000
  • Niet online
Met bijv. de luxmark openCL renderbenchmark kun je cpu's en gpu's vergelijken. Een 1080ti is bijvoorbeeld in de "hotel" scene bijna 5x zo snel als een AMD threadripper 1950x, een 1050ti lijkt 2x zo snel te zijn.

nvidia gpu's kun je goed onderling vergelijken met de octane benchmark. Een 1080ti is gemiddeld 3,6x zo snel met renderen als een 1050ti

Dus negeer die video, deze is niet representatief. Het is daarbij niet alleen hardware maar ook in hoeverre de software geoptimaliseerd is, met verschillen onderling.

[ Voor 5% gewijzigd door maratropa op 18-03-2018 21:18 ]

specs

Alle reacties


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Ik kan niet zien of de instellingen in blender in dat filmpje goed zijn ingesteld voor gpu's, het is de ryzen blender test dus bedoeld voor de cpu. Bepaalde instellingen zet je anders voor de gpu namelijk.. (oa tile size) Dus eigenlijk zegt dit filmpje niks zonder details. DUH (ik moet gewoon ff kijken) je kunt zien dat de tilesize hetzelfde is, dat is al niet handig voorzover ik weet...

En los daarvan, dit is een veel realistischere manier van licht berekenen, en veel zwaarder per "frame" dan wat je meestel in een game hebt, dus ook niet helemaal te vergelijken.

[ Voor 11% gewijzigd door maratropa op 18-03-2018 19:21 ]

specs


Acties:
  • 0 Henk 'm!

  • aawe mwan
  • Registratie: December 2002
  • Laatst online: 20:15

aawe mwan

Wat ook leuk is:

Topicstarter
maratropa schreef op zondag 18 maart 2018 @ 18:52:
En los daarvan, dit is een veel realistischere manier van licht berekenen, en veel zwaarder per "frame" dan wat je meestel in een game hebt, dus ook niet helemaal te vergelijken.
Moet ik het dan zo zien dat een GPU pas echt sneller is dan een CPU, als je de beeldkwaliteit omlaag zet?

Als je de instellingen optimaliseert, hoe groot zou de verbetering dan zijn die je zou moeten kunnen halen?

Eerlijk gezegd: als een GPU die 5 keer zo duur is als een CPU, niet minstens (veel) meer dan 5 keer zo snel kan renderen, dan vind ik het maar tegenvallen.

„Ik kan ook ICT, want heel moeilijk is dit niet”


Acties:
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
aawe mwan schreef op zondag 18 maart 2018 @ 19:52:
[...]


Moet ik het dan zo zien dat een GPU pas echt sneller is dan een CPU, als je de beeldkwaliteit omlaag zet?

Als je de instellingen optimaliseert, hoe groot zou de verbetering dan zijn die je zou moeten kunnen halen?

Eerlijk gezegd: als een GPU die 5 keer zo duur is als een CPU, niet minstens (veel) meer dan 5 keer zo snel kan renderen, dan vind ik het maar tegenvallen.
Ik bedoelde, als hij de tile size op de gpu hoger had ingesteld dan was de gpu waarschijnlijk nog sneller geweest zonder verlies aan kwaliteit (tile size is geen qualiteitsinstelling). De uploader doet gewoon maar wat :)

specs


Acties:
  • 0 Henk 'm!

  • Uszka
  • Registratie: Maart 2018
  • Laatst online: 23:27
aawe mwan schreef op zondag 18 maart 2018 @ 19:52:
Eerlijk gezegd: als een GPU die 5 keer zo duur is als een CPU, niet minstens (veel) meer dan 5 keer zo snel kan renderen, dan vind ik het maar tegenvallen.
Zo werkt het natuurlijk niet. Dan zou een 1080Ti 5x zo snel moeten zijn dan een 1050Ti en een i7-8700K 5x zo snel als een G4560 maar dat is het niet. De prestaties gaan niet evenredig omhoog met de prijs.

[ Voor 6% gewijzigd door Uszka op 18-03-2018 20:19 ]


Acties:
  • 0 Henk 'm!

  • aawe mwan
  • Registratie: December 2002
  • Laatst online: 20:15

aawe mwan

Wat ook leuk is:

Topicstarter
Maar het is toch wel zo dat renderen evenredig is aan het aantal CUDA cores?

Als je een beetje goed tuned, welke performance zou je dan moeten kunnen halen in verhouding tot een CPU?

„Ik kan ook ICT, want heel moeilijk is dit niet”


Acties:
  • Beste antwoord
  • 0 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
Met bijv. de luxmark openCL renderbenchmark kun je cpu's en gpu's vergelijken. Een 1080ti is bijvoorbeeld in de "hotel" scene bijna 5x zo snel als een AMD threadripper 1950x, een 1050ti lijkt 2x zo snel te zijn.

nvidia gpu's kun je goed onderling vergelijken met de octane benchmark. Een 1080ti is gemiddeld 3,6x zo snel met renderen als een 1050ti

Dus negeer die video, deze is niet representatief. Het is daarbij niet alleen hardware maar ook in hoeverre de software geoptimaliseerd is, met verschillen onderling.

[ Voor 5% gewijzigd door maratropa op 18-03-2018 21:18 ]

specs

Pagina: 1