Laptop voor draaien van lokale AI taalmodellen

Pagina: 1
Acties:
  • 306 views

Vraag


Acties:
  • 0 Henk 'm!

  • damylen
  • Registratie: Januari 2012
  • Niet online
Wat zou jullie advies zijn voor een laptop die volledig standalone taalmodellen kan draaien? Het liefst 15B of meer. Tot op zekere hoogte is budget of OS keuze niet relevant. Mag een MacBook pro zijn of een Windows laptop. Zolang deze in staat is iets van Ollama of LMStudio te draaien, een recente GPU en over genoeg geheugen beschikt en leverbaar is.

Wat zijn jullie ervaringen en suggesties?

Alle reacties


Acties:
  • 0 Henk 'm!

  • ResuCigam
  • Registratie: Maart 2005
  • Laatst online: 08:00

ResuCigam

BOFH

Om een LLM met 15B parameters in 16 bit te draaien heb je ongeveer 36 GB GPU geheugen nodig... Ik denk niet dat er veel notebooks op de markt zijn met zoveel GPU geheugen.

We do what we must because we can.


Acties:
  • 0 Henk 'm!

  • BombaAriba
  • Registratie: Oktober 2010
  • Laatst online: 18-05 09:05

BombaAriba

Ondertitel

Als je naar benchmarks kijkt van notebooks zie je vooral dat Macs goed presteren qua tokens/sec door de opzet van CPU/GPU/memory op 1. Of je zou naar een gaming laptop kunnen kijken maar ik weet niet of je een zakelijke lijn laptop wilt ivm bijv. garantie. Je zou ook een vorig jaar Macbook Pro kunnen kopen met best wat bang for buck. Maar ligt er ook een beetje aan wat je budget is.

We can believe what we choose. We are answerable for what we choose to believe. -John Henry Newman


Dit topic is gesloten.