OpenAI brengt openweightredeneermodel uit dat lokaal kan…

Pagina: 1
Acties:

Acties:
  • 0 Henk 'm!

  • djwice
  • Registratie: September 2000
  • Niet online
Artikel: nieuws: OpenAI brengt openweightredeneermodel uit dat lokaal kan draaien met ...
Auteur: @Imre Himmelbauer

Volgens mij is het VRAM niet RAM


Ik mis de link naar Ollama v0.11.0 release (zie submit gister avond)

https://github.com/ollama/ollama/releases
=> https://github.com/ollama/ollama/releases/tag/v0.11.0


De samenwerking van META en OpenAI voor deze launch is belangrijk.

Denk ook aan het politieke belang, de US open source modellen waren allemaal ingehaald door Chinese modellen.

Doel van gpt-oss is om uiteindelijk te leiden naar een nieuwe manier hoe wij met computers om gaan.

[ Voor 41% gewijzigd door djwice op 06-08-2025 11:44 ]

Mijn LEGO MOC's met PDF bouwinstructies en stop-motion animaties vind je op https://rebrickable.com/users/BrickDesignerNL/mocs/


Acties:
  • 0 Henk 'm!

  • weebl
  • Registratie: Juni 2002
  • Laatst online: 20:32

weebl

YARR!

Ik wou net ook een post maken. Het artikel wekt nu de indruk dat je dit kan draaien met 16GB ram, terwijl de GitHub aangeeft dat het grote model op het VRAM van een NVidia H100 past en het kleine model te draaien is met een GPU met 16GB VRAM.

Acties:
  • +1 Henk 'm!

  • Imre Himmelbauer
  • Registratie: Oktober 2017
  • Laatst online: 21:30

Imre Himmelbauer

Redacteur
Ik maak er inderdaad vram van, dat is correcter. En @djwice wat bedoel je met de samenwerking met Meta?

Acties:
  • 0 Henk 'm!

  • djwice
  • Registratie: September 2000
  • Niet online
Imre Himmelbauer schreef op woensdag 6 augustus 2025 @ 11:59:
Ik maak er inderdaad vram van, dat is correcter. En @djwice wat bedoel je met de samenwerking met Meta?
Ollama is van Meta.
Ze hebben samengewerkt om te zorgen dat tegelijkertijd het model beschikbaar is in MXFL4 kwantificering vis Ollama op Mac, Windows en Linux. En dat FL4 wat op de 50x0 van NVIDIA native wordt ondersteund ook door illama wordt gebruikt speciaal.voor dit model.

Daardoor is het extreem snel op de nieuwe NBIDIA hardware zelfs op een 5060TI/16GB.

Zie ook mijn tips van gister avond. Voor details.

Probeer het zelf:
https://ollama.com/download/windows

En dan op de cmd:
code:
1
ollama run gpt-oss:20b


Op een machine met een 50x0 NVIDIA kaart met minimaal 16GB VRAM.

[ Voor 12% gewijzigd door djwice op 06-08-2025 12:13 ]

Mijn LEGO MOC's met PDF bouwinstructies en stop-motion animaties vind je op https://rebrickable.com/users/BrickDesignerNL/mocs/


Acties:
  • 0 Henk 'm!

  • Imre Himmelbauer
  • Registratie: Oktober 2017
  • Laatst online: 21:30

Imre Himmelbauer

Redacteur
Heb je een bron dat Ollama van Meta is? Ik weet dat het Llama-model wel van Meta is, maar ik ben niet op de hoogte van Meta's eigenaarschap van Ollama.

Acties:
  • 0 Henk 'm!

  • djwice
  • Registratie: September 2000
  • Niet online
Ollama is zegmaar de defacto standaard waarmee je lokaal llm modellen draait, ook als je ze bijvoorbeeld in je eigen software wilt integreren.

Mets heeft ook eigen llm genaamt llama.
Versie 4 kun je niet officieel in Europa draaien in.v.m. EU wetgeving. Versie 3.1 was het meest populaire en meest gebruikte model voor alle projecten, totdat qwen3 uitkwam.

OpenAI en NVIDIA en Meta en anderen hebben de Amerikaanse regering aangedrongen deze open llm markt te moeten winnen. Dit is een daarbij behorende actie.

Begin januari zei Trump nog dat China 10 jaar achter liep op AI (was toen al niet waar) en ihalf januari kwam toen DeepSeek als schok, DeepSeek-0528 in mei en Qwen3 overwon llama4 en qwen3-coder is nu de beste lokale coder.

US is hard aan het werk op vele fronten om weer terug te komen in de game van lokale AI. Dit is een stapje.

Mijn LEGO MOC's met PDF bouwinstructies en stop-motion animaties vind je op https://rebrickable.com/users/BrickDesignerNL/mocs/


Acties:
  • +1 Henk 'm!

  • Mortis__Rigor
  • Registratie: Oktober 2004
  • Laatst online: 15-09 09:54
Bij mijn weten is Ollama een op zich zelf staande firma (Ollama Inc.), die weliswaar heeft samengewerkt met Meta om hun LLama modellen werkende te krijgen in Ollama (net zoals ze met OpenAI hebben samengewerkt voor bepaalde GPT modellen werkende te krijgen).

Acties:
  • 0 Henk 'm!

  • Frankyfreeze
  • Registratie: September 2023
  • Laatst online: 12-09 09:27
Kunnen we kappen met woorden zoals "openweightredeneermodel" die niet bestaan (zoals dit woord) en/of samentrekkingen zijn van woorden die samen geen logische combinatie hebben.

Openweight=Engels
Redeneermodel=Nederlands

Als ik meer informatie wil dan kan ik niet eens googlen want Googlesearchlink


En zelfs ChatGPT (je weet wel van OpenAI die dit hebben uitgebracht) weet niet wat je ermee wilt:
Het "OpenWeight Redeneermodel" is een model dat gebruikt wordt om op een gestructureerde en transparante manier afwegingen te maken in besluitvormingsprocessen, vooral in het publieke domein of bij beleidsvorming. Het model is ontwikkeld door OpenEvidence, en het wordt regelmatig toegepast in situaties waarin meerdere criteria en belangen een rol spelen.

Wie gebruiken het OpenWeight Redeneermodel?
Het wordt met name gebruikt door:

Overheden (gemeenten, provincies, rijksoverheid)
Om beleidskeuzes transparant te maken en te onderbouwen, bijvoorbeeld bij:

Het kiezen van locaties voor voorzieningen (bijv. windmolens, scholen, opvangcentra).

Beleidskeuzes op het gebied van mobiliteit, duurzaamheid of zorg.

Adviesbureaus en onderzoekers
Die werken voor overheden of maatschappelijke organisaties, en een objectieve manier zoeken om belangen te wegen en beslissingen te onderbouwen.

Participatietrajecten met burgers of belanghebbenden
Waarin belanghebbenden (zoals bewoners, bedrijven of maatschappelijke organisaties) actief meedenken en meebeslissen over bepaalde keuzes. Het model helpt dan om de overwegingen van alle partijen zichtbaar en vergelijkbaar te maken.

Onderwijsinstellingen en studenten
In opleidingen zoals bestuurskunde, planologie, beleidswetenschappen of toegepaste psychologie wordt het model soms gebruikt als voorbeeld van een afwegingskader.

Hoe werkt het kort?
Het model helpt gebruikers om:

Criteria vast te stellen die belangrijk zijn bij een keuze.

Alternatieven te formuleren (bijv. scenario's of beleidsopties).

Gewicht toe te kennen aan de verschillende criteria.

Scores te geven aan alternatieven op die criteria.

Een transparante en visuele weging te maken van de alternatieven.

Wil je weten wie het op dit moment concreet gebruiken (bijv. welke gemeenten of projecten)? Dan kan ik dat even opzoeken.
(lijkt erop dat je geen screenshots in dit forum kunt plaatsen)


-knip-
Feedback is welkom mits netjes en opbouwend gebracht

[ Voor 8% gewijzigd door Bor op 07-08-2025 09:39 ]

Pagina: 1