Deepseek veilig? En cookies issues.

Pagina: 1
Acties:

Acties:
  • 0 Henk 'm!

  • R.G
  • Registratie: Januari 2009
  • Laatst online: 01:36
Goedemorgen,

Is deepseek momenteel veilig te gebruiken en zijn het geen data rovers, dan bedoel ik de apps.

Even afwachten of nu meteen gebruiken?

Wat raden jullie aan?

Ze zeggen wel je kan het local draaien. Maar dan heb je alsnog de software in je netwerk of op je systeem kan altijd een home call moment inzitten? Die "updates" binnen haalt ( mogelijk trojan)?

Of overdrijf ik?

Daarnaast hoe kwalijk en gevaarlijk kunnen cookies zijn?

Soms merk ik dat websites slecht laden en dat je Dan per ongeluk cookies accepteert?
Is hier beveiling voor en Kan je cookies achteraf nog goed ongedaan maken en hoe doe je dat op mobile browsers?

Acties:
  • +1 Henk 'm!

  • Zenomyscus
  • Registratie: September 2012
  • Laatst online: 13:43
Is deepseek momenteel veilig te gebruiken en zijn het geen data rovers, dan bedoel ik de apps.

Even afwachten of nu meteen gebruiken?

Wat raden jullie aan?
Niemand weet wat zij met die gegevens doen. Dat weet je eigenlijk met niks. Je moet een website / app altijd op hun woord geloven. Je hoeft ook niet te kiezen tussen wachten of nu gebruiken. Je kunt kiezen uit wel gebruiken, of niet gebruiken. Als je het niet vertrouwd (terecht of onterecht) moet je het niet doen. Uberhaupt zou ik geen persoonlijke data delen met een AI.
Ze zeggen wel je kan het local draaien. Maar dan heb je alsnog de software in je netwerk of op je systeem kan altijd een home call moment inzitten? Die "updates" binnen haalt ( mogelijk trojan)?

Of overdrijf ik?
DeepSeek heeft in tegenstelling tot anderen hun code op Github staan. Dat maakt het al een stuk veiliger, want je kunt die code zelf downloaden en eventueel zelf controleren op achterdeurtjes en andere dingen die je niet op je systeem wilt. Ongetwijfeld dat anderen dat op dit moment ook aan het doen zijn. Je kunt er ook voor kiezen het via Ollama of een dergelijk platform lokaal te draaien. Maar ook dan geldt, hoe meer je zelf controleert hoe meer zekerheid je hebt. Ik acht de kans op foute 'updates', 'trojans' en dergelijke niet zo groot. Ik verwacht dat die software zichzelf uberhaupt niet update. Wel zou ik direct kijken of hij verbinding probeert te maken naar buiten, maar dat is gemakkelijk te blokkeren op je eigen systeem.
Daarnaast hoe kwalijk en gevaarlijk kunnen cookies zijn?

Soms merk ik dat websites slecht laden en dat je Dan per ongeluk cookies accepteert?
Is hier beveiling voor en Kan je cookies achteraf nog goed ongedaan maken en hoe doe je dat op mobile browsers?
Cookies zijn niet zo boeiend. Ze kunnen gebruikt worden voor tracking en kunnen gekaapt worden om een sessie over te nemen, maar dan heb je op een ander vlak een beveiligingsprobleem. Dat ligt niet zozeer aan cookies zelf. Cookies zijn niets anders dan een stukje tekst gekoppeld aan een domein met een verlooptijd. Er kan vanalles in die tekst staan, maar je systeem is daar niet ineens onveilig door. Andersom kan het dus wel zo zijn dat wanneer je systeem onveilig is er cookies misbruikt worden.

Acties:
  • +1 Henk 'm!

  • F_J_K
  • Registratie: Juni 2001
  • Niet online

F_J_K

Moderator CSA/PB

Front verplichte underscores

Puur lokaal draaien: je kunt dan voor die (virtuele) machine netwerktoegang helemaal blokkeren. Nieuwe versies kan je af en toe met de hand plaatsen.

Sowieso niet de app-versie gebruiken als je om privacy geeft. Gebruik de webversie.

Cookies: inderdaad geen beveiligings-probleem, anders dan wanneer men sessie cookies steelt en zo kan inloggen op jouw accuonts. Wel soms een privacy-probleem. Bij twijfel: gebruik de private mode van je browser en sluit die na afloop. Ga niet ook naar andere sites in dezelfde sessie. Dan boeit het niets wat er aan cookies wordt bijgehouden, het is na sluiten van de sessie vergeten.
Zenomyscus schreef op dinsdag 28 januari 2025 @ 09:10:
Je moet een website / app altijd op hun woord geloven.
Als het een Europese partij is, dan heb je een goede kans dat men doet wat er in de voorwaarden / privacy verklaring staat. (En bij een US bedrijf dat is opgenomen in het EU-U.S. data privacy framework heb je een redelijke kans, als je door de lange tekst heen komt).

De Deepseek privacy policy is simpel: alle data waar ze bij kunnen (en alle data die ze van derde partijen krijgen over jou) gaat naar China. Alle data wordt desgewenst gedeeld partners en met de lokale overheid.

Dat laatste is overigens natuurlijk ook zo in de rest van de wereld, hooguit kan je stellen dat het in Europa netter is geregeld dan de VS en in de VS netter dan CN.

Ik zou zeggen: speel er mee. Maar voer nooit persoonlijke of vertrouwelijke gegevens van jezelf of van anderen op. Wat ook geldt voor de gratis versies van ChatGPT etc. En weet dat je er geen voor China negatieve output gaat krijgen.

Edit: als je vragen hebt over cookies etc in het algemeen, doe dat in een los topic. Maar ga dan ajb eerst zelf wat onderzoek doen en komen tot voorlopige conclusies. Er is hier en elders al veel geschreven over risico's en maatregelen.

[ Voor 6% gewijzigd door F_J_K op 28-01-2025 09:58 ]

'Multiple exclamation marks,' he went on, shaking his head, 'are a sure sign of a diseased mind' (Terry Pratchett, Eric)


Acties:
  • 0 Henk 'm!

  • R.G
  • Registratie: Januari 2009
  • Laatst online: 01:36
F_J_K schreef op dinsdag 28 januari 2025 @ 09:56:
Puur lokaal draaien: je kunt dan voor die (virtuele) machine netwerktoegang helemaal blokkeren. Nieuwe versies kan je af en toe met de hand plaatsen.

Sowieso niet de app-versie gebruiken als je om privacy geeft. Gebruik de webversie.

Cookies: inderdaad geen beveiligings-probleem, anders dan wanneer men sessie cookies steelt en zo kan inloggen op jouw accuonts. Wel soms een privacy-probleem. Bij twijfel: gebruik de private mode van je browser en sluit die na afloop. Ga niet ook naar andere sites in dezelfde sessie. Dan boeit het niets wat er aan cookies wordt bijgehouden, het is na sluiten van de sessie vergeten.

[...]

Als het een Europese partij is, dan heb je een goede kans dat men doet wat er in de voorwaarden / privacy verklaring staat. (En bij een US bedrijf dat is opgenomen in het EU-U.S. data privacy framework heb je een redelijke kans, als je door de lange tekst heen komt).

De Deepseek privacy policy is simpel: alle data waar ze bij kunnen (en alle data die ze van derde partijen krijgen over jou) gaat naar China. Alle data wordt desgewenst gedeeld partners en met de lokale overheid.

Dat laatste is overigens natuurlijk ook zo in de rest van de wereld, hooguit kan je stellen dat het in Europa netter is geregeld dan de VS en in de VS netter dan CN.

Ik zou zeggen: speel er mee. Maar voer nooit persoonlijke of vertrouwelijke gegevens van jezelf of van anderen op. Wat ook geldt voor de gratis versies van ChatGPT etc. En weet dat je er geen voor China negatieve output gaat krijgen.

Edit: als je vragen hebt over cookies etc in het algemeen, doe dat in een los topic. Maar ga dan ajb eerst zelf wat onderzoek doen en komen tot voorlopige conclusies. Er is hier en elders al veel geschreven over risico's en maatregelen.
Thanks,is dit model te draaien in een container station op een nas van 2015-2020?

Of niet aan beginnen? Vereist het een zware GPU?

Acties:
  • +1 Henk 'm!

  • F_J_K
  • Registratie: Juni 2001
  • Niet online

F_J_K

Moderator CSA/PB

Front verplichte underscores

R.G schreef op dinsdag 28 januari 2025 @ 11:54:
[...]


Thanks,is dit model te draaien in een container station op een nas van 2015-2020?

Of niet aan beginnen? Vereist het een zware GPU?
Hangt van je geduld af :P Ik zou er zonder dikke videokaart niet aan beginnen. Check de requirements op github.

'Multiple exclamation marks,' he went on, shaking his head, 'are a sure sign of a diseased mind' (Terry Pratchett, Eric)


Acties:
  • +1 Henk 'm!

  • PaulHelper
  • Registratie: December 2017
  • Laatst online: 10-09 15:08
R.G schreef op dinsdag 28 januari 2025 @ 11:54:
[...]


Thanks,is dit model te draaien in een container station op een nas van 2015-2020?

Of niet aan beginnen? Vereist het een zware GPU?
Gebaseerd op de info hier (https://apxml.com/posts/gpu-requirements-deepseek-r1)

DeepSeek-R1-Distill-Qwen-1.5B 1.5B ~3.5 GB NVIDIA RTX 3060 12GB or higher
Lijkt redelijk te kunnen draaien maar ik denk dat je op je nas van inmiddels 5 jaar oud niet zon gpu hebt met genoeg VRAM. En dit is het minimale model. Ik zou daarom aanraden een ander model te gebruiken als je iets lokaal wil hebben. Die beter geoptimaliseerd zijn.

Acties:
  • 0 Henk 'm!

  • R.G
  • Registratie: Januari 2009
  • Laatst online: 01:36
PaulHelper schreef op woensdag 29 januari 2025 @ 12:30:
[...]


Gebaseerd op de info hier (https://apxml.com/posts/gpu-requirements-deepseek-r1)

DeepSeek-R1-Distill-Qwen-1.5B 1.5B ~3.5 GB NVIDIA RTX 3060 12GB or higher
Lijkt redelijk te kunnen draaien maar ik denk dat je op je nas van inmiddels 5 jaar oud niet zon gpu hebt met genoeg VRAM. En dit is het minimale model. Ik zou daarom aanraden een ander model te gebruiken als je iets lokaal wil hebben. Die beter geoptimaliseerd zijn.
Draait het zonder gpu?

Wat ik mij zo afvraag is, op het moment dat je het lokaal plaatst is het dan al niet meer up 2 date?

Want als ik het goed begrijp , hebben ze alle informatie van het internet, databanken in een text database weten te proppen en daarmee met slimme ai queries kan je een antwoord vinden?

Maar internet wordt constant aangevuld met niuewe informatie toch? en ontdekkingen?

Kan je deepseek gebruiken om een local ai te maken waarmee je alles in huis kan regelen?
  • vervangen google home
  • vervangen betaalde AI assistanten zoals gemini etc/li]
Ik vraag mij af wat deepseek voor je kan doen? Is dit alleen informatie opvragen / verifieren?

[ Voor 36% gewijzigd door R.G op 29-01-2025 14:01 ]


Acties:
  • 0 Henk 'm!

  • R.G
  • Registratie: Januari 2009
  • Laatst online: 01:36
Daarnaast hoe kan alle informatie te wereld dat echt in > 10000 tb bestaat gefiltered in een kleine dan 500gb text database passen?>

Acties:
  • 0 Henk 'm!

  • R.G
  • Registratie: Januari 2009
  • Laatst online: 01:36
Daarom denk ik dat local draaien echt bijna geen optie kan zijn voor consumenten, maar wat wel gevaarlijk is , is dat de AI cowboys zeg maar, alles in hand hebben en bepalen wat wij terugkrijgen als waarheid..

Acties:
  • +1 Henk 'm!

  • PaulHelper
  • Registratie: December 2017
  • Laatst online: 10-09 15:08
[quote]R.G schreef op woensdag 29 januari 2025 @ 13:58:
[...]


Draait het zonder gpu?

Ja volgens mij kun je als je wil ongeveer alle modellen op CPU draaien. Alleen ben je afhankelijk van 1 veel trager/meer latency systeem ram en CPU cores. Ofwel waarschijnlijk kun je het aller kleinste model draaien met 1-3 tokens per seconde ofwel een minuut per paragraaf. Waar volgens mij deepseek er een handje van heeft om lang te antwoorden voor tot een conclusie te komen.
Kortom ja het kan maar praktisch nee echt zeker niet aan te raden op een NAS en alleen op high end cpus

Acties:
  • +1 Henk 'm!

  • martin_v_z
  • Registratie: Januari 2012
  • Laatst online: 10:36
Je kan eigenlijk alle modellen op een cpu draaien. Het enige wat je nodig hebt is genoeg ram geheugen om het model in te laden. Deepseek r1 is een heel groot model. Die ga je echt niet totaal lokaal draaien, we hebben het over honderden GB aan ram geheugen. Maar er zijn kleinere versies van die minder goed antwoord geven maar nog steeds erg bruikbaar. Je moet dan denken aan 18GB aan geheugen.

Het zal wel erg traag zijn als je hem op je CPU draait. Afhankelijk of je ddr5 geheugen hebt, je cpu enz. Maar denk aan 1 woord per seconden ofzo. Dus wil je antwoorden en vind je het niet erg om later terug te komen voor je antwoord is dat prima, wil je lekker chatten of snel antwoord dan niet.

Er zijn wel kleinere alternatieve gratis modellen. Die zijn wel snel, nemen minder geheugen in beslag en geven een redelijk resultaat qua antwoord.

Wil je lokaal experimenteren kan je ollama installeren, daarmee kan je modellen installeren en draaien. Op de ollama website kan je een lijst vinden van modellen die je kan installeren, allemaal met hun eigen eigenschappen.

Verder kan je eventueel een web interface installeren. Of als je het wil gebruiken tijdens programmeren zijn er plugins.

Wil je wat meer snelheid kan je bijvoorbeeld een GPU installeren, vooral kijken naar hoeveel geheugen de kaart heeft of de mac mini's werken ook erg goed.

Acties:
  • 0 Henk 'm!

  • Appel105
  • Registratie: Juli 2010
  • Niet online
martin_v_z schreef op woensdag 29 januari 2025 @ 18:35:
Je kan eigenlijk alle modellen op een cpu draaien. Het enige wat je nodig hebt is genoeg ram geheugen om het model in te laden. Deepseek r1 is een heel groot model. Die ga je echt niet totaal lokaal draaien, we hebben het over honderden GB aan ram geheugen. Maar er zijn kleinere versies van die minder goed antwoord geven maar nog steeds erg bruikbaar. Je moet dan denken aan 18GB aan geheugen.

Het zal wel erg traag zijn als je hem op je CPU draait. Afhankelijk of je ddr5 geheugen hebt, je cpu enz. Maar denk aan 1 woord per seconden ofzo. Dus wil je antwoorden en vind je het niet erg om later terug te komen voor je antwoord is dat prima, wil je lekker chatten of snel antwoord dan niet.

Er zijn wel kleinere alternatieve gratis modellen. Die zijn wel snel, nemen minder geheugen in beslag en geven een redelijk resultaat qua antwoord.

Wil je lokaal experimenteren kan je ollama installeren, daarmee kan je modellen installeren en draaien. Op de ollama website kan je een lijst vinden van modellen die je kan installeren, allemaal met hun eigen eigenschappen.

Verder kan je eventueel een web interface installeren. Of als je het wil gebruiken tijdens programmeren zijn er plugins.

Wil je wat meer snelheid kan je bijvoorbeeld een GPU installeren, vooral kijken naar hoeveel geheugen de kaart heeft of de mac mini's werken ook erg goed.
Vraagje: kan je er zeker van zijn dat deepseek met ollama lokaal draaien wel veilig is? Wat download ollama precies qua model? Kunnen daar onveilige executables tussen zitten?

Acties:
  • +1 Henk 'm!

  • RobIII
  • Registratie: December 2001
  • Niet online

RobIII

Admin Devschuur®

^ Romeinse Ⅲ ja!

(overleden)
R.G schreef op woensdag 29 januari 2025 @ 14:02:
Daarnaast hoe kan alle informatie te wereld dat echt in > 10000 tb bestaat gefiltered in een kleine dan 500gb text database passen?>
Niet.
Er zit héél veel informatie in zo'n model, maar dat is altijd nog een piepkleine fractie (nog steeds heel veel) van "alle informatie in de wereld") en dat is dan ook nog eens op een hoop gegooid en een hele grote "lossy" brei aan informatie geworden zoals een JPG "lossy" is maar dan veel en veel "erger".

There are only two hard problems in distributed systems: 2. Exactly-once delivery 1. Guaranteed order of messages 2. Exactly-once delivery.

Je eigen tweaker.me redirect

Over mij


Acties:
  • +1 Henk 'm!

  • martin_v_z
  • Registratie: Januari 2012
  • Laatst online: 10:36
Appel105 schreef op donderdag 30 januari 2025 @ 07:36:
[...]


Vraagje: kan je er zeker van zijn dat deepseek met ollama lokaal draaien wel veilig is? Wat download ollama precies qua model? Kunnen daar onveilige executables tussen zitten?
Ollama is een tussen laag voor llama.cpp.
Wat Ollama doet is het makkelijker maken om modellen te installeren en te draaien/switchen tussen modellen. LM studio kan dit bijvoorbeeld ook en bied daarbij wat extra opties.

Ollama download het model indien nodig en start een llama.cpp webservice op de achtergrond voor het model. Je kan ook zelf de modellen downloaden en zelf llama.cpp draaien. Je krijgt dan een open ai api webservice die je kan gebruiken in verschillende apps, llama.cpp webservice heeft ook een ingebouwde web client, al is deze heel beperkt.

Wil je meer over de werking weten van hoe de de modellen worden ingelezen is het dus een goed idee om te kijken hoe llama.cpp werkt.

Acties:
  • 0 Henk 'm!

  • NiGeLaToR
  • Registratie: Maart 2000
  • Laatst online: 15:39
Heb net de controverse en bevindingen van de laatste 48u gedeeld:

NiGeLaToR in 'Een Chinese AI-dienst, hoe werkt dat? - DeepSeek vs. ChatGPT o1 en Google Gemini'

Conclusie: tis lek, slecht geregeld qua privacy, gecensureerd, onveilig qua grenzen, maar qua model wel innovatief.

KOPHI - Klagen Op Het Internet podcast. Luister hier! – bejaardenexport, WEF en de LIDL kassa kwamen al voorbij. Meepraten als gast? DM mij!


Acties:
  • 0 Henk 'm!

  • kodak
  • Registratie: Augustus 2001
  • Laatst online: 11:52

kodak

FP ProMod
NiGeLaToR schreef op donderdag 30 januari 2025 @ 11:01:Conclusie: tis lek, slecht geregeld qua privacy, gecensureerd, onveilig qua grenzen, maar qua model wel innovatief.
Wat heeft 'innovatief' met de gestelde vraag te maken? Ik lees niet dat het daardoor meer of minder risico's geeft of het duidelijk wel of niet acceptabel maakt.

Wat risico's beperken betreft lijkt er zelfs geen duidelijke innovatie te zijn. De resultaten zijn meer van hetzelfde: een ontwikkeling die gemaakt is om niet transparant te zijn en de controle van belanghebbenden weg te nemen en houden.

Acties:
  • 0 Henk 'm!

  • NiGeLaToR
  • Registratie: Maart 2000
  • Laatst online: 15:39
@kodak het model is innovatief te noemen en volgens mij de reden dat nVidia 600 miljard aan beurswaarde verloor in 24u. Volgens mij de reden waarom mensen, waaronder ts, wellicht denken dat het interessant te gebruiken is.

Maargoed, lees je alleen alles voor de komma en laat je de laatste 4 woorden weg als je er aanstoot aan neemt? :)

KOPHI - Klagen Op Het Internet podcast. Luister hier! – bejaardenexport, WEF en de LIDL kassa kwamen al voorbij. Meepraten als gast? DM mij!


Acties:
  • 0 Henk 'm!

  • kodak
  • Registratie: Augustus 2001
  • Laatst online: 11:52

kodak

FP ProMod
NiGeLaToR schreef op donderdag 30 januari 2025 @ 12:55:
@kodak het model is innovatief te noemen

Maargoed, lees je alleen alles voor de komma en laat je de laatste 4 woorden weg als je er aanstoot aan neemt? :)
Ik neem er geen aanstoot aan dat het op bepaalde manieren wel innovatief te noemen is. Maar het onderwerp gaat om de risico's, dus vroeg ik hoe innovatief het is op het gebied van risico's duidelijk maken en wegnemen.

Ik hou het er maar op dat het om sommige aanpak aantrekkelijk lijkt maar dat het juist geen heel bijzondere hulpvaardige aanpak is als je als gebruiker risico's wil herkennen en voorkomen.

Acties:
  • 0 Henk 'm!

  • R.G
  • Registratie: Januari 2009
  • Laatst online: 01:36
NiGeLaToR schreef op donderdag 30 januari 2025 @ 11:01:
Heb net de controverse en bevindingen van de laatste 48u gedeeld:

NiGeLaToR in 'Een Chinese AI-dienst, hoe werkt dat? - DeepSeek vs. ChatGPT o1 en Google Gemini'

Conclusie: tis lek, slecht geregeld qua privacy, gecensureerd, onveilig qua grenzen, maar qua model wel innovatief.
Als je het lokaall distilled draait en als 5 seconden wachten niet erg is ,is het Dan veilig?


Gaat dit werken op :
Amd 8gb kaart
AMD FX 6300
32gb ram?

De server waar ik het over had is een standard qnap met een oude Intel atom quad core CPU en heeft een kleine Intel hd video chip low end. Gaat dat hem worden?

Zou wel gaaf zijn local ai te hebben.

Kan ik daar iets mee doen als:

www.mijndomein.ai.nl dat ik San een we service heb overal in de wereld dat praat tegen mijn local ai?

Dan af en toe model update en weer recent?

Acties:
  • +2 Henk 'm!

  • F_J_K
  • Registratie: Juni 2001
  • Niet online

F_J_K

Moderator CSA/PB

Front verplichte underscores

5 seconden? Grappenmaker ;) Je zit er mogelijk enkele ordes van grootte naast. Maar meten is weten.

Probeer het, geef nul netwerktoegang, en kijk hoe ver je komt.

'Multiple exclamation marks,' he went on, shaking his head, 'are a sure sign of a diseased mind' (Terry Pratchett, Eric)


Acties:
  • +2 Henk 'm!

  • Oon
  • Registratie: Juni 2019
  • Niet online

Oon

R.G schreef op vrijdag 31 januari 2025 @ 18:28:
[...]


Als je het lokaall distilled draait en als 5 seconden wachten niet erg is ,is het Dan veilig?


Gaat dit werken op :
Amd 8gb kaart
AMD FX 6300
32gb ram?

De server waar ik het over had is een standard qnap met een oude Intel atom quad core CPU en heeft een kleine Intel hd video chip low end. Gaat dat hem worden?

Zou wel gaaf zijn local ai te hebben.

Kan ik daar iets mee doen als:

www.mijndomein.ai.nl dat ik San een we service heb overal in de wereld dat praat tegen mijn local ai?

Dan af en toe model update en weer recent?
Met die hardware mag je blij zijn als je rond de 1 token per seconden zit, dan ben je gewoon een paar minuten aan het wachten tot het antwoord op je vraag is verwerkt en uitgetypt

Acties:
  • +1 Henk 'm!

  • martin_v_z
  • Registratie: Januari 2012
  • Laatst online: 10:36
R.G schreef op vrijdag 31 januari 2025 @ 18:28:
[...]


Als je het lokaall distilled draait en als 5 seconden wachten niet erg is ,is het Dan veilig?


Gaat dit werken op :
Amd 8gb kaart
AMD FX 6300
32gb ram?

De server waar ik het over had is een standard qnap met een oude Intel atom quad core CPU en heeft een kleine Intel hd video chip low end. Gaat dat hem worden?

Zou wel gaaf zijn local ai te hebben.

Kan ik daar iets mee doen als:

www.mijndomein.ai.nl dat ik San een we service heb overal in de wereld dat praat tegen mijn local ai?

Dan af en toe model update en weer recent?
Ik ken die videokaart niet maar met 8GB kan je wel kleine modellen inladen. Die 32GB ram is leuk maar je zal waarschijnlijk iets van 24GB echt bruikbaar hebben gezien je ook je os enzo moet kunnen draaien. Een model van 24gb op cpu is onbruikbaar traag.

Ik draai op mijn cpu een klein coder model en een llama 8b model. Die laatste is ongeveer 4.5GB aan ram en is nog net bruikbaar qua snelheid. Er is denk ik wel een deepseek model die op een 8GB videokaart kan draaien. Snelheid zit dan wel goed, maar verwacht geen wonderen wat betreft de antwoorden van het model. Zal waarschijnlijk te vergelijken zijn met de gratis chatgpt van 2 jaar geleden.

Om mee te spelen wel leuk natuurlijk. En zoals gezegd als je twijfels hebt over deepseek, er zijn genoeg andere modellen. Het llama 3 model van Meta zal met die kleinere versies met zo goed presenteren. Het is geen reasoning model maar dat heb je meestal ook niet nodig.

Acties:
  • +1 Henk 'm!

  • Doane
  • Registratie: Oktober 2000
  • Laatst online: 13:24

Reacher said nothing / Everybody counts or nobody counts

Pagina: 1