Artikel: nieuws: Meta brengt 'efficiënter' taalmodel Llama 3.3 uit
Auteur: @JayStout
In de inleiding (2e x):
Het is Llama 3.3
En de grote (aantal parameters) is 70B.
Als je hem zelf wilt kwantificeren (van Quantization in het Engels) staan hier de https://huggingface.co/meta-llama/Llama-3.3-70B-Instruct trainingsparameters.
Nederlands kan ook lastig worden ondersteund omdat grote uitgevers en platformen zoals Tweakers hun content afschermen voor training van de modellen.
Dit zorgt er expliciet voor dat taal modellen steeds minder goed zullen werken voor Nederlands.
Alleen als je toegang wil tot de trainingsdata moet je persoonsgegevens achter laten en verklaren dat je het niet gaat inzetten voor slechte dingen.
Via https://ollama.com/library/llama3.3 - ook van meta - kun je het model gebruiken zonder gegevens achter te laten.
Ander leuk detail om te melden is dat het model 42GB groot is.
Auteur: @JayStout
In de inleiding (2e x):
Spatie vergeten tussen 3 en 70B.Llama 3.370B presteert
Het is Llama 3.3
En de grote (aantal parameters) is 70B.
Als je hem zelf wilt kwantificeren (van Quantization in het Engels) staan hier de https://huggingface.co/meta-llama/Llama-3.3-70B-Instruct trainingsparameters.
Nederlands kan ook lastig worden ondersteund omdat grote uitgevers en platformen zoals Tweakers hun content afschermen voor training van de modellen.
Dit zorgt er expliciet voor dat taal modellen steeds minder goed zullen werken voor Nederlands.
Alleen als je toegang wil tot de trainingsdata moet je persoonsgegevens achter laten en verklaren dat je het niet gaat inzetten voor slechte dingen.
Via https://ollama.com/library/llama3.3 - ook van meta - kun je het model gebruiken zonder gegevens achter te laten.
Ander leuk detail om te melden is dat het model 42GB groot is.
[ Voor 45% gewijzigd door djwice op 08-12-2024 13:52 ]
Mijn LEGO MOC's met PDF bouwinstructies en stop-motion animaties vind je op https://rebrickable.com/users/BrickDesignerNL/mocs/