Meta brengt 'efficiënter' taalmodel Llama 3.3 uit

Pagina: 1
Acties:

Acties:
  • 0 Henk 'm!

  • djwice
  • Registratie: September 2000
  • Niet online
Artikel: nieuws: Meta brengt 'efficiënter' taalmodel Llama 3.3 uit
Auteur: @JayStout

In de inleiding (2e x):
Llama 3.370B presteert
Spatie vergeten tussen 3 en 70B.

Het is Llama 3.3
En de grote (aantal parameters) is 70B.

Als je hem zelf wilt kwantificeren (van Quantization in het Engels) staan hier de https://huggingface.co/meta-llama/Llama-3.3-70B-Instruct trainingsparameters.


Nederlands kan ook lastig worden ondersteund omdat grote uitgevers en platformen zoals Tweakers hun content afschermen voor training van de modellen.
Dit zorgt er expliciet voor dat taal modellen steeds minder goed zullen werken voor Nederlands.


Alleen als je toegang wil tot de trainingsdata moet je persoonsgegevens achter laten en verklaren dat je het niet gaat inzetten voor slechte dingen.
Via https://ollama.com/library/llama3.3 - ook van meta - kun je het model gebruiken zonder gegevens achter te laten.


Ander leuk detail om te melden is dat het model 42GB groot is.

[ Voor 45% gewijzigd door djwice op 08-12-2024 13:52 ]

Mijn LEGO MOC's met PDF bouwinstructies en stop-motion animaties vind je op https://rebrickable.com/users/BrickDesignerNL/mocs/


Acties:
  • 0 Henk 'm!

  • Beerkiller
  • Registratie: Februari 2009
  • Laatst online: 20-05 21:19
Er wordt aangegeven dat ze 7 talen ondersteunen maar ik tel er 9 incl 2x Italiaans.