GPU voor python ML, LLM videobewerking en photoshop

Pagina: 1
Acties:

Vraag


Acties:
  • 0 Henk 'm!

  • Erpenator2
  • Registratie: Augustus 2003
  • Laatst online: 01-10 19:16
Ik ben op zoek naar een GPU welke ik zo breed mogelijk kan inzetten voor diverse taken rondom werk. De belangrijkste overweging om een GPU naast mijn iGPU aan te schaffen is dat ik bepaalde python processen wil versnellen en wil experimenteren met LLM's. Het sneller kunnen bewerken van video's en foto's is een bonus. Ik speel geen games. Het doel is vooral de GPU als werkpaard in te zetten.

Ik maak gebruik van verschillende python libraries voor topic classification / NLP, ML, waarbij je deze taken (sneller) op een GPU kan draaien. Op dit moment moet ik tussen de 10 en 15 minuten wachten voordat mijn script "klaar" is op mijn Intel Core i7-12700K en ik hoop met de juiste GPU hier tijdswinst mee te behalen. In de toekomst verwacht ik dat ik ook modellen zal moeten trainen om betere resultaten te behalen.

Daarnaast zou het mooi zijn om lokaal een LLM te kunnen draaien om mee te experimenteren waarbij ik https://cheshirecat.ai/ lokaal zou kunnen draaien (zonder gebruik van een API). Ook worden alleen NVIDIA kaarten ondersteund voor o.a. dit pakket maar meestal ook voor de andere python packages zie https://cheshirecat.ai/local-models-with-ollama/ .

Gezien de aard van de data die verwerkt wordt is het erg wenselijk om data en LLM's zo veel mogelijk lokaal te draaien en houden. Ook denk ik dat de kosten uiteindelijk lager kunnen zijn door eenmalig in hardware te investeren i.p.v alles in de cloud te draaien. Naarmate de hoeveelheid data toeneemt lopen (zo te zien) ook de kosten flink op.

Enkele vragen:

Voor het draaien van een LLM op acceptabele snelheid is veel VRAM nodig. Maar hoeveel is er minimaal nodig voor een werkbare opstelling? Het is (voor mij) niet realistisch om 3x een RTX 4090 aan te schaffen of een van de andere top end kaarten.

Is een RTX 4070 TI Super of een (gewone) RTX 4070 voldoende om bovenstaande zaken te kunnen draaien of in ieder geval te kunnen experimenteren?

Is er überhaupt een "instap" GPU voor dit soort werkzaamheden?

Is lees op Reddit dat er voldoende developers zijn die een lokale setup hebben, maar het is me niet helemaal duidelijk welke.

Op dit moment heb ik een PSU van 650 watt. Wat ik begrijp zou dat nog net voldoende moeten zijn voor een RTX 4070 kaart, klopt dat?

Wat budget betreft hoop ik (ver) onder de €1.000,- te blijven, maar sta open voor suggesties die dit probleem
kunnen oplossen boven dit bedrag. Aanvullende wensen voor een GPU is zo stil en energie zuinig mogelijk. Ik ben mij bewust dat dit tegenstrijdig is met de taken welke de GPU uitvoert ;).

Wat is jullie advies?

Alle reacties


Acties:
  • 0 Henk 'm!

  • kdeboois
  • Registratie: Oktober 2007
  • Laatst online: 11:38
Tweedehands 3090

PSN: LoadedBaton XBL: LoadedBaton


Acties:
  • 0 Henk 'm!

  • Erpenator2
  • Registratie: Augustus 2003
  • Laatst online: 01-10 19:16
Denk je wel voor je antwoord. Kun je ook toelichten waarom juist de RTX 3090? Ik ben geen fan van tweedehands i.v.m gebreken/garantie en wat ik tot nu toe gevonden heb is de prijs ook nog best fors voor tweedehands (va €800,- ). Maar als dat de enige optie dan zal ik daar mee moeten leven ;).

Acties:
  • 0 Henk 'm!

  • Uszka
  • Registratie: Maart 2018
  • Laatst online: 12:50
Er zijn duizenden 650w voedingen, van regelrechte troep tot serieus high end. Zeggen dat je een 650w voeding hebt is dus net als zeggen dat je een auto hebt met een 1200cc motor. Welk merk en type 650w voeding heb je?

Zet een 3090 maar uit je hoofd zonder de voeding te hoeven vervangen.

Acties:
  • 0 Henk 'm!

  • Erpenator2
  • Registratie: Augustus 2003
  • Laatst online: 01-10 19:16
De 650w voeding is:
CORSAIR RM650x (2021) - Voeding ATX12V 2.4, ATX12V 2.52, EPS12V 2.92 - 80 PLUS Gold.

Voeding vervangen is geen probleem als dat nodig zou moeten zijn.

  • Joove
  • Registratie: Januari 2001
  • Laatst online: 08:21
Ik vind de volgende website een goede blog over welke videokaart voor machine learning. Er wordt uitleg gegeven over de features van de ML, problemen met bepaalde kaarten/series, wattage verlagen en wat het met de performance doet, vergelijking performance en prijs met een keuze boom welke kaart je het beste kan kiezen afhankelijk van wat je wilt doen.
https://timdettmers.com/2...ch-gpu-for-deep-learning/

Acties:
  • 0 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Nu online

rapture

Zelfs daar netwerken?

Erpenator2 schreef op woensdag 14 februari 2024 @ 08:51:
Denk je wel voor je antwoord. Kun je ook toelichten waarom juist de RTX 3090? Ik ben geen fan van tweedehands i.v.m gebreken/garantie en wat ik tot nu toe gevonden heb is de prijs ook nog best fors voor tweedehands (va €800,- ). Maar als dat de enige optie dan zal ik daar mee moeten leven ;).
Past het of past het niet in 24 GB VRAM is gemakkelijker dan in 8, 12 of 16 GB VRAM.

Er zijn risico met de generatie GPU's:
  • GDDR6X wordt te heet en kan niet goed tegen teveel lezen en schrijven. GPU-mining is 24/7 VRAM lezen/schrijven en zo is deze zwakte ontdekt. GDDR6 gaat wel lang mee.
  • Te zwakke VRM dat in bepaalde beruchte games kunnen doorbranden wegens te hoge uncapped fps in de menu's.
Voor meer info zie buildzoid:
YouTube: Should you buy ex-mining GPUs?
YouTube: RTX 3090 Tis should be much more reliable than RTX 3090s

Als ze niet teveel premium voor een tweedehandse RTX 3090 Ti vragen, dan is het een mogelijkheid.

Acties:
  • 0 Henk 'm!

  • Erpenator2
  • Registratie: Augustus 2003
  • Laatst online: 01-10 19:16
Joove schreef op donderdag 22 februari 2024 @ 09:42:
Ik vind de volgende website een goede blog over welke videokaart voor machine learning.
https://timdettmers.com/2...ch-gpu-for-deep-learning/
Dit is inderdaad een goede website. Erg technisch maar op basis van de keuzetool in het artikel zou ik uitkomen op een RTX4090 i.v.m de 24GB aan VRAM om modellen in te laden.
rapture schreef op zondag 25 februari 2024 @ 03:30:
[...]

Past het of past het niet in 24 GB VRAM is gemakkelijker dan in 8, 12 of 16 GB VRAM.

Er zijn risico met de generatie GPU's:
  • GDDR6X wordt te heet en kan niet goed tegen teveel lezen en schrijven. GPU-mining is 24/7 VRAM lezen/schrijven en zo is deze zwakte ontdekt. GDDR6 gaat wel lang mee.
  • Te zwakke VRM dat in bepaalde beruchte games kunnen doorbranden wegens te hoge uncapped fps in de menu's.
Precies! Op https://www.reddit.com/r/LocalLLaMA/ lees ik dat je eigenlijk zo veel mogelijk VRAM wilt als dat je jezelf financieel kan veroorloven. Dan zit je al wel tegen een bedrag van de €2.000,- waar ook nog een nieuwe voeding bij opgeteld moet worden.

Van de risico's van DDR6X was ik ook nog niet op de hoogte. Goed dus ook om te weten _/-\o_ .

Ik neig (nog steeds) heel erg naar een RTX 4070 of RTX 4070 TI SUPER. De 4070 i.v.m. de lagere prijs of de 4070 TI SUPER voor de 16GB VRAM i.p.v 12GB wat net wat meer ruimte geeft.

Een andere optie die ik bij LocalLLaMa regelmatig tegenkomen is 128GB RAM in de pc stoppen. Hoewel het niet super snel is, schijnt het wel werkbaar te zijn.
Pagina: 1