ik kreeg recent een video in mijn feed die me aan het denken bracht.
in die video liet iemand zien hoe je openAI of Ollama kon gebruiken als converstation agent in HomeAsistant. natuurlijk worden er in dat soort video's altijd de beste cpu's en de dikste videokaarten gebruikt maar als ik iets verder kijk dan dat, zie ik op verschillende site dat ollama al draagt op nvidia kaarten met een rating 5 (een 1050 voldoet dan al volgens de docs. en als je heel erg op het randje gaat zouden gtx950's hoger ook werken
localAI beweert zelfs dat ze 'NOG' lager kunnen want naast cuda (nvidia) en amd's ROCm zou het ook werken op intel igp's (sycl)
mijn belangrijkste vraag is dan ook of er mensen zijn die hier al mee geexperimenteerd hebben.
mijn uiteindelijke doel is om een goedkope (waarschijnlijk 2e hands) grafische kaart aan te schaffen die ik middels een pcie_x1 riser in mijn homeserver wil hangen en die uiteindelijk een lokale asistent moet vormen die antwoord kan geven eenvoudige vragen als: heb ik nog mail, en van wie; wat wordt het weer morgen; doe het licht uit, zet de kachel aan en zet de tv wat zachter.
de meeste van deze dingen worden naar ik heb begrepen al door intent plugins in home assistent ondersteunt dus ik hoop vooral met een zo basic mogelijke opstelling en een zou zuinig mogelijke gpu af te kunnen.
de reden dat ik niet helemaal afzie van AI is omdat er in dit huishouden mensen zijn die nu ook al mooite hebben met de vorm-specifieke commando's van google of beter gezegd: ik wil een asistent die nét wel snapt dat 'he comptuter maak de lichten uit' in intent hetzelfde is als hé computer wil je de lampen beneden uitzetten of he computer zet alle lampen in de woonkamer en de keuken uit
waar ik vooral benieuwd naar ben zijn ervaringen zowel goede als slechte van mensen die hebben geprobeerd om selfhosted AI te draaien op oudere of budget hardware. en dan vooral op kaartjes zoals een 1050 met 2 of 4gb of vergelijkbare kaartjes van amd en/of intel. al dan niet in vergelijking met het draaien op de cpu.
in die video liet iemand zien hoe je openAI of Ollama kon gebruiken als converstation agent in HomeAsistant. natuurlijk worden er in dat soort video's altijd de beste cpu's en de dikste videokaarten gebruikt maar als ik iets verder kijk dan dat, zie ik op verschillende site dat ollama al draagt op nvidia kaarten met een rating 5 (een 1050 voldoet dan al volgens de docs. en als je heel erg op het randje gaat zouden gtx950's hoger ook werken
localAI beweert zelfs dat ze 'NOG' lager kunnen want naast cuda (nvidia) en amd's ROCm zou het ook werken op intel igp's (sycl)
mijn belangrijkste vraag is dan ook of er mensen zijn die hier al mee geexperimenteerd hebben.
mijn uiteindelijke doel is om een goedkope (waarschijnlijk 2e hands) grafische kaart aan te schaffen die ik middels een pcie_x1 riser in mijn homeserver wil hangen en die uiteindelijk een lokale asistent moet vormen die antwoord kan geven eenvoudige vragen als: heb ik nog mail, en van wie; wat wordt het weer morgen; doe het licht uit, zet de kachel aan en zet de tv wat zachter.
de meeste van deze dingen worden naar ik heb begrepen al door intent plugins in home assistent ondersteunt dus ik hoop vooral met een zo basic mogelijke opstelling en een zou zuinig mogelijke gpu af te kunnen.
de reden dat ik niet helemaal afzie van AI is omdat er in dit huishouden mensen zijn die nu ook al mooite hebben met de vorm-specifieke commando's van google of beter gezegd: ik wil een asistent die nét wel snapt dat 'he comptuter maak de lichten uit' in intent hetzelfde is als hé computer wil je de lampen beneden uitzetten of he computer zet alle lampen in de woonkamer en de keuken uit
waar ik vooral benieuwd naar ben zijn ervaringen zowel goede als slechte van mensen die hebben geprobeerd om selfhosted AI te draaien op oudere of budget hardware. en dan vooral op kaartjes zoals een 1050 met 2 of 4gb of vergelijkbare kaartjes van amd en/of intel. al dan niet in vergelijking met het draaien op de cpu.