Toon posts:

processor (cpu), RAM en videokaart (gpu)

Pagina: 1
Acties:

Verwijderd

Topicstarter
Er is veel te lezen over videokaarten bij "gamen" maar een stuk minder over "editing".
Zo ook bij de configuratie van optimale pc's (zoals ook op deze site bij de maandelijkse pc-configuratie).
Ik vraag me al een tijdje af wat de overeenkomsten en verschillen zijn om een grafische kaart te beoordelen naar "gamen" of "editing".

Ik werk met het editing programma SV pro 9 en wil binnenkort overschakelen op SV pro 11 (op een W7 platform).

Mijn probleem is dat bij het gebruik van meerdere editingtracks (7 a 8) met op elke track wel een bewerking met bvb event pan/crob, event fx of maskers, de playback niet realtime verloopt. Kortom, om het resultaat goed te beoordelen moet ik een render maken en dat kost veel tijd.
Ik zoek dus naar een pc-configuratie dat hierin een optimaal resultaat kan geven.
De combinatie van processor snelheid, het RAM en de grafische (video) kaart zijn hierbij essentieel.
Maar wat is een goede combinatie/configuratie?
Ik las hierover o.a.

http://philipbloom.net/fo...eo-card-for-vegas-11.455/

Technisch kan ik niet alles volgen (ik ben een leek) maar ik concludeer er uit dat de videokaart een aanvullend vermogen moet hebben op de combinatie processor en RAM. Anders werkt de grafische kaart meer als een bottleneck.
De info klinkt plausibel (voor mij). Maar is dat ook zo?
Kan iemand nog wat meer zeggen over de samenwerking tussen CPU en GPU?

Ik concludeer (voorlopig) voor mijn nieuwe pc-configuratie:
- i7 64 bits plusminus 3500Mhz processor
- Motherboard: asus (suggesties?)
- Graphic card: NVIDIA GeForce GTX 570 (budget) of Asus GeForce ENGTX560 DC?2D/1GD5 -1GB- PCI-E
- O.S. : Windows Home Premium 64bits (RAM tot 16 GB) (budget) of Ultimate 64 (RAM tot 192 GB)?

Zou dit een optimale configuratie benaderen?

Het zijn een aantal vragen geworden maar het thema is dezelfde.
Wie kan hier iets zinnigs over zeggen?

  • The__Virus
  • Registratie: Januari 2005
  • Laatst online: 18:44
Met een i7 zit je idd wel goed, let erop dat je flink wat RAM neemt, in elk geval 8GB en liefst 16GB. Voor je graphics card zou ik een nieuwere generatie NVidia nemen. Die hebben nl. weer nieuwe features voor hardware acceleration. Dat zit voornamelijk in het encoderen van video en CUDA ondersteuning, welke allebei vaak gebruikt worden voor het versnellen van video editting software. Let er wel op dat sommige 600-serie videokaarten van NVidia gewoon hernoemde 500-serie kaarten zijn, die wil je vermijden. Kijk ook hier eens: Wikipedia: GeForce 600 Series. Een GTX640 of 670 zou ideaal zijn (van de 640 zijn er hernoemde 500 versies maar ook nieuwe versies, gebaseerd op de Kepler architectuur). Ati kun je om deze redenen beter vermijden. Die ondersteunen weliswaar Open Computing, maar dat wordt minder gebruikt over het algemeen dan CUDA. Kijk wel eens op de website van de editting software maker waar een computer aan moet voldoen voor de realtime rendering en hardware acceleratie, vaak staat dat ergens bij support.
Je Windows versie maakt niet uit.

Verwijderd

Topicstarter
Ik heb de wikipedia pag. bekeken en heb nog een vraag.
Die "Kepler architectuur" is dus belangrijk, dus de kaarten met een verwijzing (subscript-cijfertje) hebben nog de "oude" architectuur.

Ik neem dan maar aan dat 2G gpu is aan te raden boven 1G.
Volgens eerder genoemd artikel van philipbloom moet de grafische kaart wel een meerwaarde kunnen bieden.
Als dat waar is hoe wordt dat dan bepaald wordt oftewel hoe gaat het technisch in zijn werk?
Wat doet de cpu en wat doet de gpu?

En...
Graag werk ik met 2 en liefst 3 monitoren. Volgens onderstaande algemene info is dat dus ook geen probleem. Dat geldt dus voor alle onderstaande videokaarten, net zoals "CUDA".

Support for up to 4 independent 2D displays, or 3 stereoscopic/3D displays (NV Surround)

  • The__Virus
  • Registratie: Januari 2005
  • Laatst online: 18:44
Dat 1G en 2G begrijp ik niet helemaal, maar heb dan ook niet de pagina helemaal gelezen ;) maar wat de cpu en wat de gpu doet, staat misschien ook wel op site van video edit software, want dat is maar net hoe het geprogrammeerd is. Maar in principe geldt: parallele eenvoudige taken door gpu, complexe taken door cpu. De CPU zorgt iig voor de aanlevering van data van de gpu.

  • maarten12100
  • Registratie: April 2009
  • Laatst online: 03-08-2025
Video editen is puur cpu bij de meeste programma's dus een sterke cpu of meerdere sterke cpus is aan te raden.
Ook veel ram is aan te raden.
Als het programma cuda renderen ondersteunt kan het handig zijn (als het programma multicore renderen ondersteund tot een bepaald aantal cores kan je beter de beste architectuur met dat aantal cores hebben en dan zo hoog mogelijk geklokt)

Verwijderd

Topicstarter
De CPU zorgt iig voor de aanlevering van data van de gpu.

oke, dat is wel duidelijk. de cpu levert de data aan waar de gpu mee moet "werken".

parallele eenvoudige taken door gpu, complexe taken door cpu

dit wat minder. wat zijn "parallele eenvoudige taken"?

Uit een andere site (zo dacht ik er tot nu toe over):
Een Graphics Processing Unit of GPU is een processor die gebruikt wordt voor alle videotaken. Hiermee neemt hij deze taken van de CPU (Central Processing Unit) over. De GPU bevindt zich meestal op een videokaart.

Tja....? De GPU verlicht dus de CPU. Maar, heb ik eerder begrepen uit eerder genoemde "philipbloomberg", als de CPU "sterker" is dan de GPU, wordt het er niet sneller op.

Maar het is dus maar net hoe het geprogrammeerd is.

Als het programma cuda renderen ondersteunt kan het handig zijn (als het programma multicore renderen ondersteund tot een bepaald aantal cores kan je beter de beste architectuur met dat aantal cores hebben en dan zo hoog mogelijk geklokt)

Juist ja. :?

Zou je dat wat kunnen specificeren? :)

  • henri8096
  • Registratie: November 2001
  • Laatst online: 04-03 18:00

henri8096

BIM is not a software!

Afhankelijk van welke videokaart je hebt: http://www.sonycreativesoftware.com/vegaspro/gpuacceleration

en het maakt niet uit of je AMD of nVidia neemt vegas 11 ondersteund allebei.

Kortom met GPU wordt het sneller, hoeveel sneller is afhankelijk van hoeveel geld je aan de GPU gaat uitgeven.
Ook moet je CPU in balans zijn met je GPU om geen bottleneck te vormen, maar daar zul je met die i7 geen last van hebben.
En idd is 16Gb RAM geen overbodige luxe.
Hoe het geheugen van de GPU benaderd wordt weet ik niet, weet sowiso niet of vegas het geheugen vol zal stampen.

Ik zou bij nvidia in de GTX66x, GTX67x of GTX68x serie gaan kijken en bij amd naar de HD78XX of de HD79XX serie en dan kiezen wat het best bij je budget past . . . .

En lees ook net dat er minimaal 512Mb geheugen op de videokaart moet zitten voor omptimaal gebruik.

Wat hieronder beweert word over CUDA en de 5 en 6 serie klopt het idd dat de 5 serie dan beter presteert
in dat opzicht zou je met de gtx570 wel goed zitten.

[ Voor 28% gewijzigd door henri8096 op 13-08-2012 22:16 ]

--Stuck in the Apple Ecosystem (and happy about it).--


  • Borromini
  • Registratie: Januari 2003
  • Niet online

Borromini

Mislukt misantroop

maarten12100 schreef op maandag 13 augustus 2012 @ 00:40:
Video editen is puur cpu bij de meeste programma's dus een sterke cpu of meerdere sterke cpus is aan te raden.
Adobe Première en Photoshop (en nog andere programma's uit de CS5/CS6-suite) kunnen de GPU gebruiken voor bepaalde bewerkingen. Voor veel dingen is dat CUDA en dus nVidia, maar ook OpenCL wordt ondersteund, al is dat nog minder wijdverbreid.

Ook is een GPU in verhouding een stuk krachtiger dan een CPU - een GTX 560 Ti 448 heeft bv. 448 CUDA-cores. De 600-lijn van nVidia heeft dan weer zwakkere CUDA-cores, dus als je de 500-lijn daarmee vergelijkt kan je beter de 500-lijn nemen. Sowieso kunnen GPU's door de doorgedreven parallellisering die hen kenmerkt in verhouding veel meer werk verzetten dan een enkele CPU.

Ik heb bv. een videobewerkingssysteem gebouwd met een i7 en een GTX 560 Ti 448:

#ProductPrijsSubtotaal
1MSI B75A-G43€ 73,86€ 73,86
1Sony Optiarc AD-7280S Zwart€ 16,80€ 16,80
1Microsoft Windows 7 Professional SP1 (NL, OEM, 64-Bit)€ 127,30€ 127,30
1Nexus Prominent R€ 70,90€ 70,90
2Sharkoon SATA II Kabel 50cm€ 1,70€ 3,40
1Scythe Big Shuriken 2 Rev. B€ 31,80€ 31,80
1Intel Core i7 3770 Boxed€ 265,-€ 265,-
1Seasonic S12II-Bronze 430W€ 59,99€ 59,99
1Samsung 830 series 128GB€ 98,95€ 98,95
1Corsair XMS3 CMX32GX3M4A1600C11€ 180,10€ 180,10
1Gigabyte GeForce GTX 560 Ti€ 265,-€ 265,-
Bekijk collectie
Importeer producten
Totaal€ 1.193,10

Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje


  • catfish
  • Registratie: December 2000
  • Laatst online: 24-02 00:45
voor GPGPU schijnt de huidige lineup van nVidia niet zo interessant te zijn
wat is eigenlijk het budget en is het als hobby of (semi)professioneel?
aangezien SV goed geoptimaliseerd is voor multicore is een socket 2011 met six-core misschien interessanter (kost wel een stuk meer uiteraard)

Verwijderd

Topicstarter
Bedankt alvast, deze toelichtingen geven me al een stuk beter beeld.
Ik ga de info op een rijtje zetten, enkele termen opzoeken, maar er zullen (voor mij) ongetwijfeld nog wat vragen over blijven.
Voor verdere uitleg of verwijzingen houd ik me aanbevolen.

Ik zou bij nvidia in de GTX66x, GTX67x of GTX68x serie gaan kijken
Dat doorstrepen zal wel niet de bedoeling zijn.
By the way, waar zit de quoteknop eigenlijk? (de "splits-quote" knop zie ik wel)

Kleine toelichting:
Het budget is beperkt (liefst onder 1000,- alleen voor pc) maar ik geef nu liever (onverantwoordelijk :P ) iets meer uit dan straks te snel tegen de limiet te zitten.

Ik leg me toe op historische foto's die ik tot "leven" wil brengen. Ik gebruik veel tracks onder elkaar (8 is niet ongebruikelijk) met maskers, artificeel 3-D, etc. En ik wil graag in de playback zien wat er realtime gebeurt. Met mijn oude systeem moet ik daarvoor al snel een render maken. Dat kost veel tijd. (Fx en dat soort beeldcorrecties voeg ik pas op het laatste toe).
Als er vraag naar is wil ik het semiprofessioneel gebruiken.

[ Voor 62% gewijzigd door Verwijderd op 14-08-2012 08:39 ]


Verwijderd

Topicstarter
Nog even wat info met 2 links die ik op een andere site heb gekregen. Met dank aan Mozes.

In de pdf van de 1e link (veel tabellen) staat vermeld (blz 6) dat deze kaart 1536 cuda cores bezit (als ik alles goed interpreteer).

As you may know, GTX 680 and GTX 670 cards are based on same chip (later has one block turned off).

And it has harware H.264 encoder. No, not CUDA based.

All Kepler GPUs also incorporate a new hardware-based H.264 video encoder, NVENC. Prior to the introduction of Kepler, video encoding on previous GeForce products was handled by encode software running on the GPU’s array of CUDA Cores. While the CUDA Cores were able to deliver tremendous performance speedups compared to CPU-based encoding, one downside of using these high-speed processor cores to process video encoding was increased power consumption. By using specialized circuitry for H.264 encoding, the NVENC hardware encoder in Kepler is almost four times faster than our previous CUDA-based encoder while consuming much less power.

It is important to note that an application can choose to encode using both NVENC hardware and NVIDIA’s legacy CUDA encoder in parallel, without negatively affecting each other. However, some video pre-processing algorithms may require CUDA, and this will result in reduced performance from the CUDA encoder since the available CUDA Cores will be shared by the encoder and pre-processor. NVENC provides the following:
Can encode full HD resolution (1080p) videos up to 8x faster than real-time. For example, in high performance mode, encoding of a 16 minute long 1080p, 30 fps video will take approximately 2 minutes.
Support for H.264 Base, Main, and High Profile Level 4.1 (same as Blu-ray standard)
Supports MVC (Multiview Video Coding) for stereoscopic video—an extension of H.264 which is used for Blu-ray 3D.
Up to 4096x4096 encode

Via: http://www.geforce.com/Active/en_US/en_ ... -FINAL.pdf

It could be very interesting to see native support in main NLE for this feature.

Some tests: http://www.guru3d.com/article/geforce-gtx-680-review/6


Misschien dat iemand er iets over kan zeggen.

ps Hoe krijg ik een tekst in de "quote"?

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 16-02 00:34

Sp3ci3s8472

@ 12 graden...

Als je je gpu wil gaan gebruiken voor dingen zoals Opencl en Cuda dan zou ik niet voor de nieuwe generatie van Nvidia gaan. Die zijn nogal gecastreerd als het aankomt op computing power.
De oude generatie (GTX5xx) is sneller, je zou ook kunnen kijken naar AMD.

http://images.anandtech.com/graphs/graph5699/45164.png

Leesvoer:
http://www.anandtech.com/...geforce-gtx-680-review/17


Trouwens een van de eerste hits op google:
http://www.sonycreativesoftware.com/vegaspro/gpuacceleration
Amd kaarten doen het daar niet erg slecht, zeker als je ziet dat een midend HD6870 haast net zo snel is als een GTX570.

[ Voor 22% gewijzigd door Sp3ci3s8472 op 20-08-2012 12:24 . Reden: vegas ]


  • dion_b
  • Registratie: September 2000
  • Laatst online: 01:37

dion_b

Moderator Harde Waren

say Baah

Dit is een "wat moet ik kopen?"-vraag, en die horen hier: Componenten Aankoopadvies

Move VB -> CAA

Oslik blyat! Oslik!


Verwijderd

Topicstarter
oke, sorry dion_b.

Maar het ging me ook over meer basiskennis over de gpu en cpu, de samenwerking tussen die twee.
En dan speciaal voor "editing software" en niet voor "games".
En soms moet je dan heel concreet worden.

Uiteindelijk wordt deze kennis wel gebruikt om iets te kopen, dat is waar.

Verwijderd

Topicstarter
quote
Trouwens een van de eerste hits op google:
http://www.sonycreativesoftware.com/vegaspro/gpuacceleration
Amd kaarten doen het daar niet erg slecht, zeker als je ziet dat een midend HD6870 haast net zo snel is als een GTX570.
/quote


Ja, die had ik eerder ook al gezien maar ik wist niet precies wat ik er mee aan moest, hoe ik die tabellen moest interpreteren.
M.i. gaat het ook over een vergelijking tussen pro 10 en pro 11.

Zoals eerder gezegd ben ik een leek op dit gebied.
En om over dit soort dingen meer inzicht te krijgen zodat ik (en evt anderen) al die technische data kan plaatsen, was deze discussie ook bedoeld.

Verwijderd

Topicstarter
Bedankt voor het leesvoer Sp3ci3s8472.

Aan iedereen:
Mocht er nog ergens een goed artikel staan over cpu gpu dan hoor ik dat graag.
Pagina: 1