Mijn vraag
Ik wil gaan experimenteren met AI/LLM modellen. Optie is om een private GPT aan te leggen of om e.e.a. via cloud te doen. Ik heb strikt genomen geen private GPT nodig (ga vooral openbare data zoals wetenschappelijke artikelen gebruiken) dus privacy is niet de overweging om een private GPT te installeren.
Ik zag dat voor LLM toepassingen een RTX 3090 een optie is (tweedehands) als je de meer geavanceerde modellen wilt gebruiken. Mijn vraag is of ik - als ik voor een online oplossing kies voor het gebruik van een LLM (bijv via OpenAI) - strikt genomen een GPU nodig heb. Blijft immers een investering zo'n kaart (naast het stroomgebruik van een 3090).
Wat is jullie beeld daarbij?
gr
Geert
Ik wil gaan experimenteren met AI/LLM modellen. Optie is om een private GPT aan te leggen of om e.e.a. via cloud te doen. Ik heb strikt genomen geen private GPT nodig (ga vooral openbare data zoals wetenschappelijke artikelen gebruiken) dus privacy is niet de overweging om een private GPT te installeren.
Ik zag dat voor LLM toepassingen een RTX 3090 een optie is (tweedehands) als je de meer geavanceerde modellen wilt gebruiken. Mijn vraag is of ik - als ik voor een online oplossing kies voor het gebruik van een LLM (bijv via OpenAI) - strikt genomen een GPU nodig heb. Blijft immers een investering zo'n kaart (naast het stroomgebruik van een 3090).
Wat is jullie beeld daarbij?
gr
Geert