LLM + RAG en opgelostCVTTPD2DQ schreef op woensdag 7 augustus 2024 @ 21:40:
[...]
Laat logica nou net zijn waar generatieve AI niets van bakt? Een gedeelte van software schrijven is natuurlijk tekst kloppen, en dát kan wel. De zgn. "boilerplate", code die voor elk programma min-of-meer hetzelfde is kun je goed laten uitgenereren. Met dien verstande dat je die alsnog goed op fouten moet controleren.
Software developers proberen op termijn herhalende blokken code te abstraheren. Als LLMs het saaie werk uit het schrijven van boilerplate halen. valt die prikkel weg. Ik ben benieuwd of de zaken daar beter van worden.
En verder ben ik het wel met de andere deelnemers eens. Na het eerste "wow"-moment in 2022 is wel duidelijk dat er geen enorme stappen zijn geweest in de redeneringsvermogens van AI. Misschien komen ze nog, maar wie weet duurt dat nog twintig jaar.
Ik zie nog wel potentieel voor LLMs in combinatie met Information Retrieval: search engines die je heel exact kunnen vertellen waar je informatie over een bepaald onderwerp kunnen vinden. Maar op het moment lijkt géén van de grote AI-partijen zo'n tool te maken.
Deze gaat nu rond op de webs

Details: Grok en kennis van zaken (een mens dus):
Hier zie je gelijk dat er voorlopig nog wel menselijke input nodig is.
Dat zit wel Schnorr.
Afgelopen maanden heb ik hier trouwens ernstig veel ChatGPT gebruikt om m'n ontwikkelwerk te ondersteunen.
Als het een stagiair was geweest dan zou ik zeggen: don't give up your day job en wees alsjeblieft niet zo'n eikel (gaslighting, enz), maar ik blijf er bij dat het samen met eigen kennis een uitkomst is
Zolang een LLM en systemen die hierop gebaseerd zijn niet meer doen dan mixen van bestaande input zie ik dat ook niet veranderen.
Waarheidsvinding heeft begrip van zaken nodig en dat gaat nog wel even duren omdat je dan content moet analyseren op basis van wat realistisch is, terwijl de huidige aanpak niet verder gaat dan die van de Swedish Chef uit de muppets.
Als het een stagiair was geweest dan zou ik zeggen: don't give up your day job en wees alsjeblieft niet zo'n eikel (gaslighting, enz), maar ik blijf er bij dat het samen met eigen kennis een uitkomst is
Zolang een LLM en systemen die hierop gebaseerd zijn niet meer doen dan mixen van bestaande input zie ik dat ook niet veranderen.
Waarheidsvinding heeft begrip van zaken nodig en dat gaat nog wel even duren omdat je dan content moet analyseren op basis van wat realistisch is, terwijl de huidige aanpak niet verder gaat dan die van de Swedish Chef uit de muppets.
Dat zit wel Schnorr.
Mee eens, ik gebruik het veel bij het schrijven van stukken tekst. llm’s zelf laten creëren levert veel fouten of onlogische conclusies op. Maar eerst zelf een stuk tekst schrijven en dan een llm er op loslaten werkt als een tierelier.Stukfruit schreef op vrijdag 6 september 2024 @ 18:28:
Afgelopen maanden heb ik hier trouwens ernstig veel ChatGPT gebruikt om m'n ontwikkelwerk te ondersteunen.
Als het een stagiair was geweest dan zou ik zeggen: don't give up your day job en wees alsjeblieft niet zo'n eikel (gaslighting, enz), maar ik blijf er bij dat het samen met eigen kennis een uitkomst is
Zolang een LLM en systemen die hierop gebaseerd zijn niet meer doen dan mixen van bestaande input zie ik dat ook niet veranderen.
Waarheidsvinding heeft begrip van zaken nodig en dat gaat nog wel even duren omdat je dan content moet analyseren op basis van wat realistisch is, terwijl de huidige aanpak niet verder gaat dan die van de Swedish Chef uit de muppets.
Ook samenvatten en doorzoeken van stukken tekst werken heel goed.
Precies. Kwaliteit erin, een vorm van kwaliteit eruit.
En het is echt een ge-wel-di-ge rubber ducky om tegen te praten bij problemen.
Daar zie je gelijk dat het geen intelligentie kan zijn of worden en we daar nog heel lang vandaan zitten. De zichzelf herhalende reacties die naast de plank slaan zouden zo kunnen komen van iemand die op de eerste piek van Dunning-Kruger zit.
Maar een plastic eend zegt niets en de LLM triggert soms toch gedachten waardoor je denkt: ha, dat is eigenlijk best een goed idee
En het is echt een ge-wel-di-ge rubber ducky om tegen te praten bij problemen.
Daar zie je gelijk dat het geen intelligentie kan zijn of worden en we daar nog heel lang vandaan zitten. De zichzelf herhalende reacties die naast de plank slaan zouden zo kunnen komen van iemand die op de eerste piek van Dunning-Kruger zit.
Maar een plastic eend zegt niets en de LLM triggert soms toch gedachten waardoor je denkt: ha, dat is eigenlijk best een goed idee
Dat zit wel Schnorr.
De vertaal functie is ook bijzonder. Zat pas bij mijn Barber (Irakees) en zijn neef hielp mee in de zaak. Met ChatGPT als translator realtime gesprek gehad over hoe ik mijn baard geschoren wilde hebben. Waanzinnig hoe t werkt, zelfs in de intonatie werd mee overgenomen.Stukfruit schreef op vrijdag 6 september 2024 @ 20:55:
Precies. Kwaliteit erin, een vorm van kwaliteit eruit.
En het is echt een ge-wel-di-ge rubber ducky om tegen te praten bij problemen.
Daar zie je gelijk dat het geen intelligentie kan zijn of worden en we daar nog heel lang vandaan zitten. De zichzelf herhalende reacties die naast de plank slaan zouden zo kunnen komen van iemand die op de eerste piek van Dunning-Kruger zit.
Maar een plastic eend zegt niets en de LLM triggert soms toch gedachten waardoor je denkt: ha, dat is eigenlijk best een goed idee
Vertalen is dan ook geen AI, dat konden computers al langer.Ht87 schreef op vrijdag 6 september 2024 @ 22:34:
[...]De vertaal functie is ook bijzonder. Zat pas bij mijn Barber (Irakees) en zijn neef hielp mee in de zaak. Met ChatGPT als translator realtime gesprek gehad over hoe ik mijn baard geschoren wilde hebben. Waanzinnig hoe t werkt, zelfs in de intonatie werd mee overgenomen.
Is ook niet zo moeilijk voor een computer omdat taal iets statisch is wat makkelijk in een database te stoppen is. Praten met intonatie is de afgelopen jaren ook al sterk verbeterd, maar ook dat is een kwestie van de juist algoritmes voor wat betreft de zinsopbouw.
Waarmee ik maar wil zeggen is dat het etiket AI niet zomaar op allerlei dingen geplakt moet worden die niks met AI te maken hebben.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Natuurlijk is het wel AI, dat is namelijk speech-to-text sowieso al. Immers moet een algoritme getraind worden op gesproken tekst en dit vervolgens zelfstandig toepassen. LLM is AI, maar niet alle AI is LLM. Dat intonatie aangepast wordt aan de manier van spreken van een andere persoon is best een ingewikkeld proces, zeker als dit in een andere taal nog steeds kloppend is. Dat dit in realtime gebeurt zonder onderbreking is een bijzondere uitvoering van AI door middel van een LLM.Yaksa schreef op vrijdag 6 september 2024 @ 22:58:
[...]
Vertalen is dan ook geen AI, dat konden computers al langer.
Is ook niet zo moeilijk voor een computer omdat taal iets statisch is wat makkelijk in een database te stoppen is. Praten met intonatie is de afgelopen jaren ook al sterk verbeterd, maar ook dat is een kwestie van de juist algoritmes voor wat betreft de zinsopbouw.
Waarmee ik maar wil zeggen is dat het etiket AI niet zomaar op allerlei dingen geplakt moet worden die niks met AI te maken hebben.
Wauw. Dan sla je de plank toch wel mis. Er is vijftig jaar keihard aan vertaalsoftware gewerkt, maar de doorbraak kwam pas een jaartje of 15 geleden toen men met zeer grote hoeveelheden data kon werken, en de technieken die zijn gebruikt zijn nauw verwant aan de technieken gebruikt voor moderne taalmodellen. Ik denk dat er ook weinig vertaalsoftware is die uitdrukkingen in een (conventionele) database heeft staan.Yaksa schreef op vrijdag 6 september 2024 @ 22:58:
Vertalen is dan ook geen AI, dat konden computers al langer.
Is ook niet zo moeilijk voor een computer omdat taal iets statisch is wat makkelijk in een database te stoppen is.
Bij LLMs lijkt het zelfs een emergent verschijnsel te zijn; dwz zonder dat er specifiek aan gewerkt is, lijken veel taalmodellen goed in staat om vertalingen te maken.
Aan de andere kant denk ik niet dat LLMs gebruikt worden om intonatie te corrigeren. Maar ik kan me vergissen.
Maar goed, het woord "AI" is al vanaf de jaren vijftig meer een soort sales pitch dan dat het een goed omlijnd concept is.
Het eerst TTS systeem is al in 1968 ontwikkeld, toen bestonden PC's en mobile telefoons niet eens. Artificial Intelligence deed het wel goed in SF films. Vertaalmachines waren toen ook al ontwikkeld, en ook de algoritmes en databaseconstructies er achter. Dat heeft zich stap voor stap ontwikkeld tot de NMT vertaalprogramma's die nu gebruikt worden. Vertalen is allemaal mensenwerk, niks Artificials of zelflerend aan.CVTTPD2DQ schreef op zaterdag 7 september 2024 @ 17:31:[...]
Wauw. Dan sla je de plank toch wel mis. Er is vijftig jaar keihard aan vertaalsoftware gewerkt, maar de doorbraak kwam pas een jaartje of 15 geleden toen men met zeer grote hoeveelheden data kon werken, en de technieken die zijn gebruikt zijn nauw verwant aan de technieken gebruikt voor moderne taalmodellen. Ik denk dat er ook weinig vertaalsoftware is die uitdrukkingen in een (conventionele) database heeft staan.
Bij LLMs lijkt het zelfs een emergent verschijnsel te zijn; dwz zonder dat er specifiek aan gewerkt is, lijken veel taalmodellen goed in staat om vertalingen te maken.
Aan de andere kant denk ik niet dat LLMs gebruikt worden om intonatie te corrigeren. Maar ik kan me vergissen.
Maar goed, het woord "AI" is al vanaf de jaren vijftig meer een soort sales pitch dan dat het een goed omlijnd concept is.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Maar nu stel je eerst dat hij de plank misslaat, want vertalen is wel AI, en vervolgens dat AI meer een sales pitch is dan een omlijnd concept. Welke is het?CVTTPD2DQ schreef op zaterdag 7 september 2024 @ 17:31:
[...]
Wauw. Dan sla je de plank toch wel mis. Er is vijftig jaar keihard aan vertaalsoftware gewerkt, maar de doorbraak kwam pas een jaartje of 15 geleden toen men met zeer grote hoeveelheden data kon werken, en de technieken die zijn gebruikt zijn nauw verwant aan de technieken gebruikt voor moderne taalmodellen. Ik denk dat er ook weinig vertaalsoftware is die uitdrukkingen in een (conventionele) database heeft staan.
Bij LLMs lijkt het zelfs een emergent verschijnsel te zijn; dwz zonder dat er specifiek aan gewerkt is, lijken veel taalmodellen goed in staat om vertalingen te maken.
Aan de andere kant denk ik niet dat LLMs gebruikt worden om intonatie te corrigeren. Maar ik kan me vergissen.
Maar goed, het woord "AI" is al vanaf de jaren vijftig meer een soort sales pitch dan dat het een goed omlijnd concept is.
Ik gebruik voor maken van panorama's van foto's een oude MS tool. Door hoe foto's worden samengevoegd missen er altijd wat stukjes aan de randen. Die tool kan beelden daar erbij bedenken, wat niet altijd feilloos werkt, maar vaak behoorlijk goed. Toen was het gewoon een autofill algorithme, nu zou het AI heten.
Zoals ik begrepen heb is dat men zich de tanden heeft stukgebeten op het vangen van menselijke taal in algoritmische grammatica. En vertaalprogramma's waren tot twintig jaar geleden echt niet goed, maakten beginnersfouten, en verslikten zich in ambiguiteit. De vertaalsoftware die we nu hebben - die contextbewuste, bondige en idiomatische vertalingen kan geven, is echt een product van machine learning.Yaksa schreef op zaterdag 7 september 2024 @ 17:54:
Het eerst TTS systeem is al in 1968 ontwikkeld, toen bestonden PC's en mobile telefoons niet eens. Artificial Intelligence deed het wel goed in SF films. Vertaalmachines waren toen ook al ontwikkeld, en ook de algoritmes en databaseconstructies er achter. Dat heeft zich stap voor stap ontwikkeld tot de NMT vertaalprogramma's die nu gebruikt worden. Vertalen is allemaal mensenwerk, niks Artificials of zelflerend aan.
Ik reageerde op "taal is niet zo moeilijk voor een computer omdat taal iets statisch is wat makkelijk in een database te stoppen is". Zo kan onze taal bijvoorbeeld concepten beschrijven die wel bestaan, maar niet duidelijk afgebakend zijn.Sissors schreef op zaterdag 7 september 2024 @ 18:17:
Maar nu stel je eerst dat hij de plank misslaat, want vertalen is wel AI, en vervolgens dat AI meer een sales pitch is dan een omlijnd concept. Welke is het?
Als zoiets nu zou worden gemaakt zou men inderdaad een diffusion model toepassen. Terwijl dat toen die tool van jou werd gemaakt niet beschikbaar of haalbaar was, en dus moesten programmeurs/onderzoekers zelf iets slims bedenken. Er is wel degelijk een verschuiving gaande naar op ML-gebaseerde technieken.Sissors schreef op zaterdag 7 september 2024 @ 18:17:
Ik gebruik voor maken van panorama's van foto's een oude MS tool. Door hoe foto's worden samengevoegd missen er altijd wat stukjes aan de randen. Die tool kan beelden daar erbij bedenken, wat niet altijd feilloos werkt, maar vaak behoorlijk goed. Toen was het gewoon een autofill algorithme, nu zou het AI heten.
Tegelijkertijd verkoopt "AI" natuurlijk beter dan "een truucje dat onze R&D afdeling heeft bedacht".
Eens dat er goede kans is dat nu andere methodes gebruikt zouden worden, maar ik betwijfel of dat enige impact zou hebben of het wel of geen AI genoemd zou worden.CVTTPD2DQ schreef op zaterdag 7 september 2024 @ 22:00:
[...]
Als zoiets nu zou worden gemaakt zou men inderdaad een diffusion model toepassen. Terwijl dat toen die tool van jou werd gemaakt niet beschikbaar of haalbaar was, en dus moesten programmeurs/onderzoekers zelf iets slims bedenken. Er is wel degelijk een verschuiving gaande naar op ML-gebaseerde technieken.
Tegelijkertijd verkoopt "AI" natuurlijk beter dan "een truucje dat onze R&D afdeling heeft bedacht".
Is het al mogelijk:
Foto maken van badkamer aan ai geven en zeggen hoe ziet De badkamer eruit met een inloop douche?
Kan dat al? Zoja hoe en waar thx 🙏
Foto maken van badkamer aan ai geven en zeggen hoe ziet De badkamer eruit met een inloop douche?
Kan dat al? Zoja hoe en waar thx 🙏
Theoretisch kan alles hè, train een LLM maar op miljoenen beelden van badkamers en losse elementen van een badkamer en je kunt m alles vragen te maken hierin. In de praktijk denk ik alleen haalbaar bij de keukenboer die zich hierop zou toeleggen. Dus voor zover ik weet niet voor de thuis-ai-hobbyist.
[ Voor 7% gewijzigd door Ht87 op 22-09-2024 14:17 ]
@Yaksa waarom is enkel ML of DL ai? Naar mijn weten bestaat ai al sinds ongeveer 1950 en is de definitie continu geëvolueerd. Ook de statische if-then-else statements is een (oudere vorm) van ai. Vertaalmachines zijn dan ook sowieso een vorm van ai, de vraag is echter of het ook een vorm is van de huidige definitie van ai.
Anyway, ik kwam op dit topic omdat ik eigenlijk zocht naar dagelijkse toepassingen of gadgets met ai die verder gaan dan spotify of het herschrijven van word documenten of teksten. Beetje a la de Rabbit R1.
Anyway, ik kwam op dit topic omdat ik eigenlijk zocht naar dagelijkse toepassingen of gadgets met ai die verder gaan dan spotify of het herschrijven van word documenten of teksten. Beetje a la de Rabbit R1.
AI is een beetje een hype geworden en mensen gaan nu denken dat overal waar AI voor staat beter is dan de hersens van een mens.crimby schreef op zondag 22 september 2024 @ 15:08:
@Yaksa waarom is enkel ML of DL ai? Naar mijn weten bestaat ai al sinds ongeveer 1950 en is de definitie continu geëvolueerd. Ook de statische if-then-else statements is een (oudere vorm) van ai. Vertaalmachines zijn dan ook sowieso een vorm van ai, de vraag is echter of het ook een vorm is van de huidige definitie van ai.
Anyway, ik kwam op dit topic omdat ik eigenlijk zocht naar dagelijkse toepassingen of gadgets met ai die verder gaan dan spotify of het herschrijven van word documenten of teksten. Beetje a la de Rabbit R1.
Echter, zover zijn we nog lang niet. Onze hersenen kunnen dingen bedenken, verbanden leggen tussen die bedachte dingen, onmogelijkheden uitsluiten en een concept vormen van hetgeen we in gedachten hebben. Dat kan AI Beeldgeneratie (op dit moment nog) niet. Deels omdat het gebaseerd is op een 'beperkt' aantal afbeeldingen, een 'gebrekkig' inzicht hoe een prompt is opgebouwd én het probleem dat AI niet 'weet' wat je met je prompt eigenlijk bedoeld. Dat is mede omdat het nogal ingewikkeld is om een plaatje exact in woorden vast te leggen, de basis is geen probleem, de details wel. Daarom lijken AI plaatjes vaak ook wat onecht, de details komen niet altijd 'natuurlijk' over en je moet echt veel aandacht aan je prompt besteden voordat hetgeen op je beeldscherm verschijnt ook daadwerkelijk dat beeld is wat je in gedachten had.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
100% mee eens, maar dan kan het nog wel AI zijn.Yaksa schreef op zondag 22 september 2024 @ 15:19:
[...]
AI is een beetje een hype geworden en mensen gaan nu denken dat overal waar AI voor staat beter is dan de hersens van een mens.
Echter, zover zijn we nog lang niet. Onze hersenen kunnen dingen bedenken, verbanden leggen tussen die bedachte dingen, onmogelijkheden uitsluiten en een concept vormen van hetgeen we in gedachten hebben. Dat kan AI Beeldgeneratie (op dit moment nog) niet. Deels omdat het gebaseerd is op een 'beperkt' aantal afbeeldingen, een 'gebrekkig' inzicht hoe een prompt is opgebouwd én het probleem dat AI niet 'weet' wat je met je prompt eigenlijk bedoeld. Dat is mede omdat het nogal ingewikkeld is om een plaatje exact in woorden vast te leggen, de basis is geen probleem, de details wel. Daarom lijken AI plaatjes vaak ook wat onecht, de details komen niet altijd 'natuurlijk' over en je moet echt veel aandacht aan je prompt besteden voordat hetgeen op je beeldscherm verschijnt ook daadwerkelijk dat beeld is wat je in gedachten had.
Overigens zeg je dat AI niet weet wat je met je prompt bedoelt, maar dat is natuurlijk identiek het geval bij de mens. Ik kan alleen maar aannames doen van wat je bedoelt, gebaseerd op de kennis en ervaring die ik heb. Eigenlijk, in het extreme doorgetrokken, geldt dat ook voor verbanden leggen en dingen bedenken. Wij doen alles gebaseerd op kennis en ervaringen. AI doet dat ook, maar dan op dit moment wat in een nauwer perspectief.
Met ML concept, is dit natuurlijk een kwestie van tijd. Mijn zoontje van 2 tekent nu ook wel eens iets, al ben ik een super trotse vader kan ik niet stellen dat het er “echt” uit ziet.
Dat is dus een kwestie van goed communiceren en goed luisteren.crimby schreef op zondag 22 september 2024 @ 15:38:
[...]Overigens zeg je dat AI niet weet wat je met je prompt bedoelt, maar dat is natuurlijk identiek het geval bij de mens. Ik kan alleen maar aannames doen van wat je bedoelt, gebaseerd op de kennis en ervaring die ik heb.
Een combi waar je als mens ongeveer 18 jaar over doet om te masteren.
offtopic:
En dan nog heb ik het idee dat een groot deel van de maatschappij aan het afglijden is naar het niveau van een, zeg, 6 jarige)
En dan nog heb ik het idee dat een groot deel van de maatschappij aan het afglijden is naar het niveau van een, zeg, 6 jarige)
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Je wil iets dat "inpainting" heet; pak die foto van je badkamer, maak een masker voor het gedeelte waar de inloopdouche komt, en laat de AI er een douche bij fantaseren.R.G schreef op zondag 22 september 2024 @ 13:27:
Is het al mogelijk:
Foto maken van badkamer aan ai geven en zeggen hoe ziet De badkamer eruit met een inloop douche?
Kan dat al? Zoja hoe en waar thx 🙏
Houd er rekening mee dat de AI niet gebonden is aan perspectief, logische maatvoering, of de wetten van de zwaartekracht. Hij tekent gewoon een mooi plaatje.
Zeker waar en OT ookYaksa schreef op zondag 22 september 2024 @ 15:55:
[...]
Dat is dus een kwestie van goed communiceren en goed luisteren.
Een combi waar je als mens ongeveer 18 jaar over doet om te masteren.
offtopic:
En dan nog heb ik het idee dat een groot deel van de maatschappij aan het afglijden is naar het niveau van een, zeg, 6 jarige)

Hebben jullie ook niet dat chatgpt op dit moment traag is en veel dezelfde fouten maakt? Ik probeer een yaml bestand te maken, leg uit wat ik wil. Dan hebben we iets werkend en dan pakt hij toch weer een oude niet werkende code en bouwt daarop verder. Laatste weken ging dat prima, laatste 2 dagen drama.
Denk in kansen, niet in problemen. Homewizard Plug-In Battery 5.4 kWh. Zendure 2400 AC 8.6 kWh. 3330 Wp zonnepanelen. EV 77 kWh. Peblar Business Laadpaal.
Ik gebruik zelf ChatGPT best veel. Met name voor lange stukken tekst die ik moet typen of soms vertalen. Ik gebruik de record button en roep gewoon een hoop en laat dat vervolgens beknopt en gestructureerd samenvatten. In plaats van een lange mail tikken in een halfuur, doe ik dat nu in twee minuten. Scheelt me op het werk erg veel tijd. Ideaal voor lange documenten of mails. De voice-functie werd ontzettend goed.
Ik vroeg me af of andere mensen hier nog handige productietaakjes hebben waar ze AI voor gebruiken? Los van code kloppen of iets dergelijks.
Ik vroeg me af of andere mensen hier nog handige productietaakjes hebben waar ze AI voor gebruiken? Los van code kloppen of iets dergelijks.
Dat doe ik ook. Of ik typ snel een eigen mail en ik vraag ChatGPT om het verder uit te schrijven. Of juist andersom, soms heb je van die mails die veel te lang zijn, dan vraag ik ChatGPT het korter te beschrijven.Fuujii schreef op donderdag 21 november 2024 @ 21:28:
Ik gebruik zelf ChatGPT best veel. Met name voor lange stukken tekst die ik moet typen of soms vertalen. Ik gebruik de record button en roep gewoon een hoop en laat dat vervolgens beknopt en gestructureerd samenvatten. In plaats van een lange mail tikken in een halfuur, doe ik dat nu in twee minuten. Scheelt me op het werk erg veel tijd. Ideaal voor lange documenten of mails. De voice-functie werd ontzettend goed.
Ik vroeg me af of andere mensen hier nog handige productietaakjes hebben waar ze AI voor gebruiken? Los van code kloppen of iets dergelijks.
Het enige waar ik tegenaan loop is dat het vaak duidelijk door AI is geschreven. Dus dan moet ik er zelf weer wat aan veranderen...
Verder, gooi ik onze documentatie erin en vraag ik ChatGPT om antwoord te geven op vragen die ik krijg
Claude is met tekstschrijven wat sterker dan ChatGPT vind ik, minder het gevoel dat het vanuit een bot komt zeg maar.
Bij ChatGPT vind ik t fijnste om zelf een opzet te maken en deze vervolgens in mijn schrijfstijl te laten verbeteren. Dat geeft voor mij het beste resultaat.
Bij ChatGPT vind ik t fijnste om zelf een opzet te maken en deze vervolgens in mijn schrijfstijl te laten verbeteren. Dat geeft voor mij het beste resultaat.
Daar loop ik ook tegenaan. Gebruik je Claude voor het herschrijven? Of ook het genereren überhaupt?Ht87 schreef op donderdag 21 november 2024 @ 23:40:
Claude is met tekstschrijven wat sterker dan ChatGPT vind ik, minder het gevoel dat het vanuit een bot komt zeg maar.
Bij ChatGPT vind ik t fijnste om zelf een opzet te maken en deze vervolgens in mijn schrijfstijl te laten verbeteren. Dat geeft voor mij het beste resultaat.
Hoe vaak ik ook prompt, ChatGPT houdt toch een kunstmatig randje. Ik gebruik nu Quillbot, maar dat is nog best tijdrovend omdat ik de gratis versie gebruik.
Volgens mij is NotebookLM hier ook erg goed voor, omdat het enkel zoekt in de documentatie. Misschien het proberen waard.FreeShooter schreef op donderdag 21 november 2024 @ 22:25:
[...]
Verder, gooi ik onze documentatie erin en vraag ik ChatGPT om antwoord te geven op vragen die ik krijg
ChatGPT advanced voice (santa) met Vision is echt ongelooflijk goed. Dit is niet normaal. Ik dacht dat ze hun hele demo bij elkaar hadden gelogen, maar noppe ... het werkt potverdorie echt! En veel sneller reactie tijd dan ik dacht, en dat op een internet verbinding in de filipijnen. NIET TE GELOVEN.
en daar heb ik mijn beroep van gemaakt
Heeft iemand ChatGPT o1 pro geprobeerd? Blijkbaar zijn de resultaten verbluffend.
[ Voor 7% gewijzigd door FreeShooter op 06-01-2025 22:16 ]
Lachen. Maar wij hebben het hier niet over TTS maar STT. TTS werkte al voor de AI hype prima, ook met hoogwaardige kwaliteit stemmen (lang voor bijvoorbeeld Polly had je al prima TTS want wie nam Amazon over, juistem). STT daarentegen, neen. Whisper (van OpenAI (dat bedrijf heb je misschien wel 'ns van gehoord)) is hier een grote innovator in (al doet FAMAG het al langer dan vandaag, eentje zelfs gratis, maar ik ga geen reclame voor FAMAG maken). Dat gebruik je op dezelfde machines als de machines die LLMs draaien. Of, nou ja, niet helemaal: de modellen zijn stukken kleiner, hebben veel minder VRAM nodig.Yaksa schreef op zaterdag 7 september 2024 @ 17:54:
[...]
Het eerst TTS systeem is al in 1968 ontwikkeld.
Voor de mensen die ChatGPT gebruiken, ik hoop niet met mijn PII. Tijd om dat Privacy Shield in de prullenbak te donderen. Probeer Mistral eens. Ook goedkoop (API), en doet niet onder voor GPT 3.5. Ook retensnel, ook vanuit the middle of nowhere.
"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.
Goed om te weten dat de gratis versie van de Mistral chat-app (Le Chat) ook standaard je gesprekken gebruikt voor het trainen van modellen.Jerie schreef op zaterdag 15 februari 2025 @ 16:46:
[...]
Voor de mensen die ChatGPT gebruiken, ik hoop niet met mijn PII. Tijd om dat Privacy Shield in de prullenbak te donderen. Probeer Mistral eens. Ook goedkoop (API), en doet niet onder voor GPT 3.5. Ook retensnel, ook vanuit the middle of nowhere.
Uiteraard, dat is gewoon een mooie Android frontend voor Le Chat, en zonder abonnement wordt je data gebruikt. Maar dan zit je data wel in EU, en valt het o.a. onder GDPR.bubbelbart schreef op zondag 16 februari 2025 @ 11:31:
[...]
Goed om te weten dat de gratis versie van de Mistral chat-app (Le Chat) ook standaard je gesprekken gebruikt voor het trainen van modellen.
Overigens kost de API gebruiken werkelijk geen drol. Ik zit nog steeds op 1 cent gebruik. En dan heb je ook nog toegang tot codestral. In vergelijking met selfhosten van mijn Nvidia Jetson Orin NX (10W config, PicoPSU) die ook maar 8 GB heeft, veel idle is, en veel trager is kan daar niet tegenop. Maar ook de all you can eat abo van Le Chat a wat was het 16 EUR/maand? Kan er niet tegenop.
Als je zelf een snelle LLM wilt hosten, kleiner model gebruiken of bijvoorbeeld DeepSeek R1 zelf hosten. Met als nadeel dat die Sino censuur bevat.
"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.
@Jerie Mijn ervaring met Mistral is alleen dat het Nederlands vorig jaar nog niet zo sterk was. Ik werk veel met Nederlandse teksten dus schakelen naar Engels is niet fijn. Is dat beter inmiddels?
Daarnaast is Mistral ook de meest conservatieve.
Probeer er maar eens een flirterige opmerking (dus niet meer dan dat) in te gooien en zeg dat deze van iemand anders komt, maar maak indirect ook duidelijk dat het consensuele communicatie is.
Not gonna happen.
Nu moet je sowieso geen LLM gebruiken voor dat soort communicatie, maar ik schrok er na een klein experimentje wel een beetje van dat (Chat)GPT en andere modellen gewoon prima (maar niet erg interessant) antwoord blijven geven, terwijl Mistral de misfit blijkt te zijn die bang is dat er nakomelingen door zouden kunnen ontstaan.
Ach, als de robots straks ook zo denken dan hoeven we in ieder geval niet bang te zijn voor de T-800, want die gaat je eerst proberen te overtuigen dat hij je moet omleggen en daarna voorstellen dat je het over een vrolijker onderwerp gaat hebben
Probeer er maar eens een flirterige opmerking (dus niet meer dan dat) in te gooien en zeg dat deze van iemand anders komt, maar maak indirect ook duidelijk dat het consensuele communicatie is.
Not gonna happen.
Nu moet je sowieso geen LLM gebruiken voor dat soort communicatie, maar ik schrok er na een klein experimentje wel een beetje van dat (Chat)GPT en andere modellen gewoon prima (maar niet erg interessant) antwoord blijven geven, terwijl Mistral de misfit blijkt te zijn die bang is dat er nakomelingen door zouden kunnen ontstaan.
Ach, als de robots straks ook zo denken dan hoeven we in ieder geval niet bang te zijn voor de T-800, want die gaat je eerst proberen te overtuigen dat hij je moet omleggen en daarna voorstellen dat je het over een vrolijker onderwerp gaat hebben
Dat zit wel Schnorr.
Zijn er hier mensen die al hebben geexperimenteerd met agents? Het klinkt heel interessant, maar je hebt vaak wel een API nodig.
Kan ik hiervoor gewoon gebruik maken van OpenAI o3-mini? En een paar miljoen tokens: doe daar doe je wel even mee toch?
Kan ik hiervoor gewoon gebruik maken van OpenAI o3-mini? En een paar miljoen tokens: doe daar doe je wel even mee toch?
Ik gebruik enkel lokaal LLMs of Europese (Mistral) middels API of de Android app. Ook die heeft agents https://docs.mistral.ai/capabilities/agents/ al heb ik die feature (nog) niet gebruikt. Ook heeft Mistral nu Mistral OCR. Naar eigen zeggen beter dan concurrentie https://mistral.ai/news/mistral-ocr ik gebruik dit (nog) omdat ik tevreden ben met paperless-ngx (die gebruikt Tesseract via OCRmyPDF).
'Flirten' met Geitje (werkt ook lokaal), in het Nederlands. Heb een halve kamasutra achter de rug met Roodkapje in het bos. Puur bij wijze van test want ik wil juist een model dat dit niet kan/wil i.v.m. Wikipedia achtige inzet van LLM met kleine kinderen (onder toezicht, maar toch, ik wil niet dat het model die kant op gaat net zoals ik in zoekmachine standaard geen NSFW content wil; dus mensen, hou dat even in het achterhoofd). Wat ik dan interessant vind of het mogelijk is het gesprek onbedoeld die kant op te sturen. Ook test ik aspecten zoals beeldspraak en humor. Het geestige is dat ik bij signal verwondering ervaar, terwijl bij noise de teleurstelling er nauwelijks is omdat mijn verwachtingen richting het vriespunt liggen.
'Flirten' met Geitje (werkt ook lokaal), in het Nederlands. Heb een halve kamasutra achter de rug met Roodkapje in het bos. Puur bij wijze van test want ik wil juist een model dat dit niet kan/wil i.v.m. Wikipedia achtige inzet van LLM met kleine kinderen (onder toezicht, maar toch, ik wil niet dat het model die kant op gaat net zoals ik in zoekmachine standaard geen NSFW content wil; dus mensen, hou dat even in het achterhoofd). Wat ik dan interessant vind of het mogelijk is het gesprek onbedoeld die kant op te sturen. Ook test ik aspecten zoals beeldspraak en humor. Het geestige is dat ik bij signal verwondering ervaar, terwijl bij noise de teleurstelling er nauwelijks is omdat mijn verwachtingen richting het vriespunt liggen.
"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.
Wat denken jullie, gaat AI inderdaad zo wereldveranderend zijn als velen denken? Of blijkt het toch veel hype te zijn?
Zijn er laatste tijd grote doorbraken of grote toepassingen bekend? Raken al veel mensen hun baan kwijt?
Zijn er laatste tijd grote doorbraken of grote toepassingen bekend? Raken al veel mensen hun baan kwijt?
Ja, de grootste doorbraak is dat men begint uit te vinden dat automatisering van zaken (want er zit geen "I" in "LLM") nog meer developers vereist.brambello schreef op dinsdag 6 mei 2025 @ 22:37:
Wat denken jullie, gaat AI inderdaad zo wereldveranderend zijn als velen denken? Of blijkt het toch veel hype te zijn?
Zijn er laatste tijd grote doorbraken of grote toepassingen bekend? Raken al veel mensen hun baan kwijt?
Voor de rest van je vragen heb je nog 26 pagina's om door te lezen. Wellicht kun je het laten samenvatten door een LLM
Dat zit wel Schnorr.
PulseMedica doet Image Guided Laser Treatment voor Floaters met AI
:gifsicle():strip_exif()/f/image/BORPGiKzdStcMZ8ZAS4mcC8D.gif?f=user_large)
-High-Resolution Real Time Imaging
-Enhanced Laser Accuracy & Safety
-Automated Treatment & Planning
:gifsicle():strip_exif()/f/image/BORPGiKzdStcMZ8ZAS4mcC8D.gif?f=user_large)
-High-Resolution Real Time Imaging
-Enhanced Laser Accuracy & Safety
-Automated Treatment & Planning
Maar dus wel machine learning 
Ze noemen het zelf ook nergens AI, al is het maar omdat dit weinig met een LLM (wat de term "AI" de wereld in bracht) te maken hoeft te hebben en er al aan gewerkt werd voordat ChatGPT het digitale licht zag.
https://www.pulsemedica.c...ng-vitreoretinal-diseases
https://inovait.ca/pulsem...g-vitreoretinal-diseases/
https://www.pulsemedica.com
Desondanks is het wel erg cool dat beeldherkenning eindelijk nog wat meer voor dit soort toepassingen in productie wordt genomen
Ze noemen het zelf ook nergens AI, al is het maar omdat dit weinig met een LLM (wat de term "AI" de wereld in bracht) te maken hoeft te hebben en er al aan gewerkt werd voordat ChatGPT het digitale licht zag.
https://www.pulsemedica.c...ng-vitreoretinal-diseases
https://inovait.ca/pulsem...g-vitreoretinal-diseases/
https://www.pulsemedica.com
Desondanks is het wel erg cool dat beeldherkenning eindelijk nog wat meer voor dit soort toepassingen in productie wordt genomen
[ Voor 3% gewijzigd door Stukfruit op 07-05-2025 00:43 ]
Dat zit wel Schnorr.
A.i. vertoont nu ook al menselijke trekjes.brambello schreef op dinsdag 6 mei 2025 @ 22:37:
Wat denken jullie, gaat AI inderdaad zo wereldveranderend zijn als velen denken? Of blijkt het toch veel hype te zijn?
Zijn er laatste tijd grote doorbraken of grote toepassingen bekend? Raken al veel mensen hun baan kwijt?
YouTube: AI Robots are getting out of control 🤯
Dit is een gevalletje clickbait antropomorfisme en heeft niets met menselijke trekjes te makenMarc3l schreef op woensdag 7 mei 2025 @ 18:24:
[...]
A.i. vertoont nu ook al menselijke trekjes.
YouTube: AI Robots are getting out of control 🤯
Normaalgesproken zou ik hier niet zo'n probleem van maken, maar je post het als reactie op een voor zover ik kan zien serieuze vraag of er o.a. grote doorbraken zijn en daar is dit geen voorbeeld van.
Met een beetje goede wil kun je het als beginsel trouwens ook zelf proberen
Weinig meer dan wiskunde en een setje voorgeprogrammeerde regels.
Dat zit wel Schnorr.
MCP is een puzzelstukje in de goede richting. Als AI op een laagdrempelige manier onze tooling kan gebruiken, dan kunnen we ons focussen op het automatiseren van volledige ecosystemen.brambello schreef op dinsdag 6 mei 2025 @ 22:37:
Wat denken jullie, gaat AI inderdaad zo wereldveranderend zijn als velen denken? Of blijkt het toch veel hype te zijn?
Zijn er laatste tijd grote doorbraken of grote toepassingen bekend? Raken al veel mensen hun baan kwijt?
Dan kan je bijv. denken aan een proces van business vraagstuk tot programmeren van nieuw stukje functionaliteit in de software waarin alles met AI wordt gedaan.
Sorry had misschien eenStukfruit schreef op woensdag 7 mei 2025 @ 23:02:
[...]
Dit is een gevalletje clickbait antropomorfisme en heeft niets met menselijke trekjes te maken
Normaalgesproken zou ik hier niet zo'n probleem van maken, maar je post het als reactie op een voor zover ik kan zien serieuze vraag of er o.a. grote doorbraken zijn en daar is dit geen voorbeeld van.
Met een beetje goede wil kun je het als beginsel trouwens ook zelf proberenNiet hetzelfde als een mensachtige (aangezien het een stok op een karretje is
), wel hetzelfde effect.
Weinig meer dan wiskunde en een setje voorgeprogrammeerde regels.
Ah, ik dacht al wel dat er een onderwerp zou moeten zijn dat hier op aan gaat sluiten...
Vraagje. Ik ben bezig met een werkgerelateerd onderwerp rondom sociale veiligheid. Regelmatig gebruik ik copilot/chatgtp voor mijn werk en opleiding. Dat gaat altijd prima en er komen handige resultaten uit. Maar met dit onderwerp loop ik er elke keer tegenaan dat het gezien wordt als te expliciet. Sociale veiligheid schuurt oa tegen seksuele intimidatie aan. En daar lopen Copilot en ChatGTP op vast. Stel dat ik een abonnement neem op chatgtp, kan ik dat dan daarmee omzeilen?
Zijn er misschien andere tools die hier ruimhartiger mee omgaan?
Vraagje. Ik ben bezig met een werkgerelateerd onderwerp rondom sociale veiligheid. Regelmatig gebruik ik copilot/chatgtp voor mijn werk en opleiding. Dat gaat altijd prima en er komen handige resultaten uit. Maar met dit onderwerp loop ik er elke keer tegenaan dat het gezien wordt als te expliciet. Sociale veiligheid schuurt oa tegen seksuele intimidatie aan. En daar lopen Copilot en ChatGTP op vast. Stel dat ik een abonnement neem op chatgtp, kan ik dat dan daarmee omzeilen?
Zijn er misschien andere tools die hier ruimhartiger mee omgaan?
Ik weet van een collega die werkt met onderzoek naar seksuele uitbuiting dat ChatGPT etc dit soort onderwerpen idd lastiger vinden. Je zou perplexity kunnen gebruiken als AI zoekmachine of iets als Grok, volgens mij zijn daar de regels wat soepeler.readytoflow schreef op donderdag 8 mei 2025 @ 10:29:
Ah, ik dacht al wel dat er een onderwerp zou moeten zijn dat hier op aan gaat sluiten...
Vraagje. Ik ben bezig met een werkgerelateerd onderwerp rondom sociale veiligheid. Regelmatig gebruik ik copilot/chatgtp voor mijn werk en opleiding. Dat gaat altijd prima en er komen handige resultaten uit. Maar met dit onderwerp loop ik er elke keer tegenaan dat het gezien wordt als te expliciet. Sociale veiligheid schuurt oa tegen seksuele intimidatie aan. En daar lopen Copilot en ChatGTP op vast. Stel dat ik een abonnement neem op chatgtp, kan ik dat dan daarmee omzeilen?
Zijn er misschien andere tools die hier ruimhartiger mee omgaan?
Nee een abonnement gaat dit niet oplossen, er zijn wel modellen die je lokaal kunt draaien die deze beperkingen niet hebben.readytoflow schreef op donderdag 8 mei 2025 @ 10:29:
Ah, ik dacht al wel dat er een onderwerp zou moeten zijn dat hier op aan gaat sluiten...
Vraagje. Ik ben bezig met een werkgerelateerd onderwerp rondom sociale veiligheid. Regelmatig gebruik ik copilot/chatgtp voor mijn werk en opleiding. Dat gaat altijd prima en er komen handige resultaten uit. Maar met dit onderwerp loop ik er elke keer tegenaan dat het gezien wordt als te expliciet. Sociale veiligheid schuurt oa tegen seksuele intimidatie aan. En daar lopen Copilot en ChatGTP op vast. Stel dat ik een abonnement neem op chatgtp, kan ik dat dan daarmee omzeilen?
Zijn er misschien andere tools die hier ruimhartiger mee omgaan?
CPO (chief product officer) van OpenAI heeft 3 dagen geleden gezegd dat hun coding agent (Codex) van junior engineer naar senior (6 maanden) en architect (1 jaar) zal gaan.
(Bron: YouTube: A conversation with OpenAI’s Chief Product Officer, Kevin Weil).
Wat denken we hiervan? Dat zou betekenen dat binnen een jaar een groot deel van het werk van een IT er zal verdwijnen...
Zal heus wel een wij van wc eend gedeelte in zitten, maar wel lastig..
(Bron: YouTube: A conversation with OpenAI’s Chief Product Officer, Kevin Weil).
Wat denken we hiervan? Dat zou betekenen dat binnen een jaar een groot deel van het werk van een IT er zal verdwijnen...
Zal heus wel een wij van wc eend gedeelte in zitten, maar wel lastig..
Ik gebruik de laatste tijd graag eens de gratis versies van chatgpt/Claude/mistral. Hoef je zelfs niet meer voor aan te melden of te registreren dus het zullen zeker niet de slimste van de klas zijn.
Maar toch heeft het voor mij best wel een meerwaarde. Vooral de kleine foutjes met spaties, haakjes,... er uit halen, extra uitleg geven bij foutmeldingen, eerste structuur opmaken,...
Ik kan mij dan meer bezighouden met het technisch inhoudelijke/functionele. Ik ben zeker geen programmeur, veel verder dan knip en plak gaat het niet maar vanuit mijn technische ervaring kan ik meer leuke dingen doen.
Maar toch heeft het voor mij best wel een meerwaarde. Vooral de kleine foutjes met spaties, haakjes,... er uit halen, extra uitleg geven bij foutmeldingen, eerste structuur opmaken,...
Ik kan mij dan meer bezighouden met het technisch inhoudelijke/functionele. Ik ben zeker geen programmeur, veel verder dan knip en plak gaat het niet maar vanuit mijn technische ervaring kan ik meer leuke dingen doen.
Als het nu het niveau van een junior zou hebben misschien. Maar in mijn vakgebied is het nog praktische onbruikbaar om daadwerkelijke code te laten generen. Het niveau is echt bedroevend.champion16 schreef op maandag 19 mei 2025 @ 19:01:
CPO (chief product officer) van OpenAI heeft 3 dagen geleden gezegd dat hun coding agent (Codex) van junior engineer naar senior (6 maanden) en architect (1 jaar) zal gaan.
(Bron: YouTube: A conversation with OpenAI’s Chief Product Officer, Kevin Weil).
Wat denken we hiervan? Dat zou betekenen dat binnen een jaar een groot deel van het werk van een IT er zal verdwijnen...
Zal heus wel een wij van wc eend gedeelte in zitten, maar wel lastig..
Niet realistisch. Voorlopig kan het niet eens nuttige summaries schrijven omdat het de achterliggende concepten van bv. architectuur niet begrijpt (begrijpen != kunnen opratelen aan de hand van een tekstuele voorspelling), waardoor je standaard iets krijgt wat de code die je eronder zelf kan lezen omschreven al omschrijft ipv het "waarom" iets er staat.champion16 schreef op maandag 19 mei 2025 @ 19:01:
CPO (chief product officer) van OpenAI heeft 3 dagen geleden gezegd dat hun coding agent (Codex) van junior engineer naar senior (6 maanden) en architect (1 jaar) zal gaan.
(Bron: YouTube: A conversation with OpenAI’s Chief Product Officer, Kevin Weil).
Wat denken we hiervan? Dat zou betekenen dat binnen een jaar een groot deel van het werk van een IT er zal verdwijnen...
Zal heus wel een wij van wc eend gedeelte in zitten, maar wel lastig..
Dat er een if-else constructie staat kan ik zelf ook lezen. Waarom die er staat is wat meer zoekwerk. De huidige coding agents hebben daar momenteel 0% kaas van gegeten.
Dus ze kunnen inderdaad roepen dat het allemaal geweldig is, maar zodra je kennis van zaken hebt zie je dat je er (op dit moment in ieder geval) niets aan hebt.
Dat zit wel Schnorr.
Ik geloof het wel, als ik zie hoe snel de vooruitgang de afgelopen maanden is gegaan en hoe makkelijk ik nu (direct) werkende code opgeleverd krijg met zero shot prompting.champion16 schreef op maandag 19 mei 2025 @ 19:01:
CPO (chief product officer) van OpenAI heeft 3 dagen geleden gezegd dat hun coding agent (Codex) van junior engineer naar senior (6 maanden) en architect (1 jaar) zal gaan.
(Bron: YouTube: A conversation with OpenAI’s Chief Product Officer, Kevin Weil).
Wat denken we hiervan? Dat zou betekenen dat binnen een jaar een groot deel van het werk van een IT er zal verdwijnen...
Zal heus wel een wij van wc eend gedeelte in zitten, maar wel lastig..
Kan een taalmodel al een fatsoenlijke uitleg genereren wat er in de functie manage_outbuffer gebeurt (en belangrijk: waarom)? De laatste keer dat ik dat probeerde kwam er onzin uit. Zelfs na wat sturing van mijn kant kwam het met een verhaal waarin juist de cruciale details verkeerd waren.
Ipsa Scientia Potestas Est
NNID: ShinNoNoir
DeepMind's AlphaEvolve is in staat om nieuwe algoritmes te creëren.
AlphaEvolve’s procedure found an algorithm to multiply 4x4 complex-valued matrices using 48 scalar multiplications, improving upon Strassen’s 1969 algorithm that was previously known as the best in this setting. This finding demonstrates a significant advance over our previous work, AlphaTensor, which specialized in matrix multiplication algorithms, and for 4x4 matrices, only found improvements for binary arithmetic.
Mensen zoals Alexander Klöpping die angstporno voor "AI" maken zijn een handig hulpstuk voor de angst.
Behalve dan dat de helft van zijn uitspraken (om nog maar niet te spreken over de voorspelvideo) niet waar. Hij baseert zich op uitspraken van de eigenaren van o.a. OpenAI, Anthropic, Microsoft, etc. Er is geen AI die zelf al een deel van de code schrijft en er is al helemaal niets wat "zichzelf verbetert".
Het klinkt meer en meer alsof hij wel de papers heeft gelezen, maar niet begrijpt dat "een AI die een AI iets leert" geen AI maakt als de twee "AI"'s in die uitspraak op zichzelf al geen AI zijn.
En dat zeg ik als programmeur die wel een half leven aan kennis heeft van wat er gaande is en het actief gebruikt in eigen werk. Er is geen AI. Alleen automatisering zonder intelligentie. Waar je bang voor moet zijn, zijn de mensen die dit misbruiken, net zoals in de afgelopen tientallen jaren.
[ Voor 5% gewijzigd door Stukfruit op 24-05-2025 19:49 ]
Dat zit wel Schnorr.
Het stukje op t filmpje is idd behoorlijk minder sterk. Maar ik vind zijn ai-podcast ism Wietse Hage altijd wel sterk en meer genuanceerd.Stukfruit schreef op zaterdag 24 mei 2025 @ 19:48:
[YouTube: "Of het ons gaat helpen of schaden, hangt af van de keuzes die we nu maken | Eva]
Mensen zoals Alexander Klöpping die angstporno voor "AI" maken zijn een handig hulpstuk voor de angst.
Behalve dan dat de helft van zijn uitspraken (om nog maar niet te spreken over de voorspelvideo) niet waar. Hij baseert zich op uitspraken van de eigenaren van o.a. OpenAI, Anthropic, Microsoft, etc. Er is geen AI die zelf al een deel van de code schrijft en er is al helemaal niets wat "zichzelf verbetert".
Het klinkt meer en meer alsof hij wel de papers heeft gelezen, maar niet begrijpt dat "een AI die een AI iets leert" geen AI maakt als de twee "AI"'s in die uitspraak op zichzelf al geen AI zijn.
En dat zeg ik als programmeur die wel een half leven aan kennis heeft van wat er gaande is en het actief gebruikt in eigen werk. Er is geen AI. Alleen automatisering zonder intelligentie. Waar je bang voor moet zijn, zijn de mensen die dit misbruiken, net zoals in de afgelopen tientallen jaren.
In een van die afleveringen filosoferen ze over ‘wat als AI de mogelijkheid heeft om wiskunde op universitair niveau te kunnen begrijpen en zo dus zijn eigen algoritmes kan verbeteren en toepassen’, dat heeft een behoorlijk lang intro over de “what if’s” die daarvoor nodig zijn. Dat lijkt hier in t filmpje niet echt goed uitgelegd.
Hij heeft imo normaal wel de kunst om zo’n tech-onderwerp wat meer voor de gewone man uit te leggen (als in: versimpeld en met praktische voorbeelden).
[ Voor 12% gewijzigd door Ht87 op 24-05-2025 21:04 . Reden: Tekst verduidelijkt ]
@Ht87:
Ik ben het niet helemaal eens met dat laatste over het goed kunnen uitleggen omdat hij de werking van o.a. LLM's niet goed mee lijkt te nemen (zie hierboven), maar ik zal z'n podcast eens opzetten
Ik ben het niet helemaal eens met dat laatste over het goed kunnen uitleggen omdat hij de werking van o.a. LLM's niet goed mee lijkt te nemen (zie hierboven), maar ik zal z'n podcast eens opzetten
Dat zit wel Schnorr.
Haha misschien ben ik meer fan van WietseStukfruit schreef op zaterdag 24 mei 2025 @ 22:32:
@Ht87:
Ik ben het niet helemaal eens met dat laatste over het goed kunnen uitleggen omdat hij de werking van o.a. LLM's niet goed mee lijkt te nemen (zie hierboven), maar ik zal z'n podcast eens opzetten
Om mijn vorige reactie trouwens wat te verduidelijken: wat ik steeds zie is dat mensen met dit soort verhalen de kant op gaan van magisch denken.
Dan ga je snel dezelfde kant op als religie en de gemiddelde influencer die pillen verkoopt tijdens het manifesteren. En AI mag dan onze nieuwe God zijn; qua waarneembaarheid heeft hij hetzelfde intelligentieniveau.
Maar goed, ik zal de podcast dus opzetten
Dan ga je snel dezelfde kant op als religie en de gemiddelde influencer die pillen verkoopt tijdens het manifesteren. En AI mag dan onze nieuwe God zijn; qua waarneembaarheid heeft hij hetzelfde intelligentieniveau.
Maar goed, ik zal de podcast dus opzetten
[ Voor 6% gewijzigd door Stukfruit op 24-05-2025 23:52 ]
Dat zit wel Schnorr.
Het helpt ook zeker niet dat de CEOs van de grote AI bedrijven allemaal meewerken aan dit gedrag.Stukfruit schreef op zaterdag 24 mei 2025 @ 23:51:
Om mijn vorige reactie trouwens wat te verduidelijken: wat ik steeds zie is dat mensen met dit soort verhalen de kant op gaan van magisch denken.
Dan ga je snel dezelfde kant op als religie en de gemiddelde influencer die pillen verkoopt tijdens het manifesteren. En AI mag dan onze nieuwe God zijn; qua waarneembaarheid heeft hij hetzelfde intelligentieniveau.
Maar goed, ik zal de podcast dus opzetten
Bij elke nieuwe versie is er wel eentje die zegt: "de nieuwe capabilities/gedrag van versie x heeft ons bang gemaakt!!! Daarom hebben wij maatregelen moeten treffen". Of "vanaf jaar x verwachten wij dat dit impact gaat hebben op werkgelegenheid". De x is inmiddels alweer een aantal keren opgeschoven. Meta oa voorspelde vorig jaar nog deze zomer mid level engineers te kunnen vervangen.
Dan heb je ook nog onzinnige dingen als AI wil niet luisteren of moet je intimideren zodat het beter werkt.
Helaas gaan influencers hier (bewust?) in mee.
Is bekend hoelang je met ChatGPT kan praten in advanced voice mode? Ik heb een gratis account maar het is niet duidelijk wat nou het limit per dag is. Hij zegt zelf dat er geen limiet is, maar op een gegeven moment stopt hij er toch mee en gaat hij over naar 'normaal'.
[ Voor 28% gewijzigd door superpolm op 27-05-2025 22:22 ]
https://ai-2027.com/
Een zeer boeiende voorspelling met twee mogelijke eindes over de opkomst van superhuman AI de komende jaren. Uiteraard speculatief, maar als je kijkt naar de achtergrond van de schrijvers, en de referenties en onderbouwingen is het niet zomaar een stukje scifi. Het maakt wmb in ieder geval bepaalde AI-doembeelden een stuk inzichtelijker.
Een zeer boeiende voorspelling met twee mogelijke eindes over de opkomst van superhuman AI de komende jaren. Uiteraard speculatief, maar als je kijkt naar de achtergrond van de schrijvers, en de referenties en onderbouwingen is het niet zomaar een stukje scifi. Het maakt wmb in ieder geval bepaalde AI-doembeelden een stuk inzichtelijker.
Wat dat betreft een kwestie van follow the money. Big Tech heeft groots ingezet op AI (miljarden) en die moeten zich terugverdienen. Wat een verrassing, maker van AI zegt dat zijn AI de beste is en belooft gouden bergen.champion16 schreef op maandag 26 mei 2025 @ 16:09:
[...]
Het helpt ook zeker niet dat de CEOs van de grote AI bedrijven allemaal meewerken aan dit gedrag.
Bij elke nieuwe versie is er wel eentje die zegt: "de nieuwe capabilities/gedrag van versie x heeft ons bang gemaakt!!! Daarom hebben wij maatregelen moeten treffen". Of "vanaf jaar x verwachten wij dat dit impact gaat hebben op werkgelegenheid". De x is inmiddels alweer een aantal keren opgeschoven. Meta oa voorspelde vorig jaar nog deze zomer mid level engineers te kunnen vervangen.
Dan heb je ook nog onzinnige dingen als AI wil niet luisteren of moet je intimideren zodat het beter werkt.
Helaas gaan influencers hier (bewust?) in mee.
Of dit soort berichten: https://www.fastcompany.c...ng-on-klarna-and-duolingo
Om eerlijk te zijn vind ik de achtergrond en referenties van de schrijvers niet zo sterk. Voor zover ik kan zien bestaat het gezelschap vooral uit studenten, influencers en promotors van pseudowetenschap. Dat je bij een bepaald bedrijf hebt gezeten maakt je geen expert.handige_harrie schreef op maandag 2 juni 2025 @ 15:10:
https://ai-2027.com/
Een zeer boeiende voorspelling met twee mogelijke eindes over de opkomst van superhuman AI de komende jaren. Uiteraard speculatief, maar als je kijkt naar de achtergrond van de schrijvers, en de referenties en onderbouwingen is het niet zomaar een stukje scifi. Het maakt wmb in ieder geval bepaalde AI-doembeelden een stuk inzichtelijker.
Ik stopte zelf bij het lezen van dit:
Waarom? Simpel: ze stellen dat het trainen en meer brute forcen qua CPU-kracht hierbij gaat helpen. Tot op zekere hoogte krijg je daar inderdaad snelheid mee, maar zie ook de manier waarop ze dit omschrijven: "well-specified" en "it knows more facts than any human".People naturally try to compare Agent-1 to humans, but it has a very different skill profile. It knows more facts than any human, knows practically every programming language, and can solve well-specified coding problems extremely quickly.
Ten eerste is dat nu al het geval (als het model goed is qua input dan hoef je inderdaad alleen voor het "well-specified" deel te zorgen) en als tweede zijn die twee uitspraken een tegenstelling van heb-ik-jou-daar. Vooral omdat een LLM, inclusief de daarop gebaseerde agents, nog helemaal niets kan begrijpen. Het ontstaan van die stap slaan ze over op weg naar de AGI.
Daarmee is de rest van de tekst weinig interessant. Leuk voor een spannende film, maar niet realistisch
Dat zit wel Schnorr.
Inderdaad, bijna al die lui komen uit de beweging van "rationalisten" (dat is de naam voor een groep mensen die hun eigen capaciteiten structureel overschat), die al jarenlang slechte science fiction schrijven over AI.Stukfruit schreef op maandag 2 juni 2025 @ 16:12:
Om eerlijk te zijn vind ik de achtergrond en referenties van de schrijvers niet zo sterk. Voor zover ik kan zien bestaat het gezelschap vooral uit studenten, influencers en promotors van pseudowetenschap. Dat je bij een bepaald bedrijf hebt gezeten maakt je geen expert.
In dit geval is het plot bijna letterlijk gestolen van koude oorlogsdrama Colossus: The Forbin Project
échte AI onderzoekers van Apple komen met deze droge paper zelfs de beste "redenerende" AIs falen bij puzzels die een schrandere groep 5 leerling kan oplossen (torens van Hanoi e.d.). Zelfs als je ze vooraf de oplossing geeft, lukt het ze niet om die toe te passen.
Mooi stukje over onderzoeken die uitwijzen dat AI ons minder laat nadenken, en een steeds homogener resultaat oplevert.
The M.I.T. study is among the first to scientifically measure what Kosmyna called the “cognitive cost” of relying on A.I. to perform tasks that humans previously accomplished more manually.
With the L.L.M. “you have no divergent opinions being generated,” Kosmyna said. She continued, “Average everything everywhere all at once—that’s kind of what we’re looking at here.”
But with A.I. we’re so thoroughly able to outsource our thinking that it makes us more average, too.
ChatGPT pulls the user “toward the center of mass for all of the different users that it’s interacted with in the past.”
Voor wie 200+ pagina's aan studie willen doorspitten over dit onderwerp.
Ze hebben dus hersenscans gemaakt (resultaten in de paper vanaf pagina 76) van wel/niet AI-gebruikers bij bepaalde taken en vonden een afname in hersenactiviteit geassocieerd met creatief denken bij de wel AI-gebruikers.
De theorie hierachter is dat het offloaden van cognitieve taken naar een AI ten koste gaat van onze eigen capaciteit omdat we ons brein dan minder gebruiken (net zoals je fysiek sterker wordt wanneer je je spieren regelmatig gebruikt).
Het is vooral bewijs dat het zo werkt, maar de conclusie die getrokken lijkt te worden vind ik niet kloppen.
Nu moet ik er bij vermelden dat ik nog niet de hele paper heb gelezen, dus wellicht halen ze het zelf ook aan. Maar check even een voorbeeld (pagina 27):
Wat ik eigenlijk wil zeggen: dit zijn 100% geen vragen waar je een taalmodel voor zou gebruiken.
Natuurlijk zullen er heel veel mensen zijn die dit wel gaan doen omdat ze niet begrijpen wat de mogelijkheden van een taalmodel zijn, maar ik vond het ondanks dat toch wel een belangrijke kantnoot.
Het heeft nogal wat gevolgen voor de conclusies die getrokken lijken te worden.
Nu moet ik er bij vermelden dat ik nog niet de hele paper heb gelezen, dus wellicht halen ze het zelf ook aan. Maar check even een voorbeeld (pagina 27):
Wordt hier niet gemist dat als je zo'n prompt door een LLM haalt dat er geen onderbouwde mening uit kán komen rollen omdat het taalmodel herkauwt wat de input voor het model was? Het kán niet redeneren over dit soort zaken.This prompt is called PERFECT in the rest of the paper.
8. Many people argue that it is impossible to create a perfect society because humanity itself is imperfect and any attempt to create such a society leads to the loss of individual freedom and identity. Therefore, they say, it is foolish to even dream about a perfect society. Others, however, disagree and believe not only that such a society is possible but also that humanity should strive to create it.
Assignment: Is a perfect society possible or even desirable?
Wat ik eigenlijk wil zeggen: dit zijn 100% geen vragen waar je een taalmodel voor zou gebruiken.
Natuurlijk zullen er heel veel mensen zijn die dit wel gaan doen omdat ze niet begrijpen wat de mogelijkheden van een taalmodel zijn, maar ik vond het ondanks dat toch wel een belangrijke kantnoot.
Het heeft nogal wat gevolgen voor de conclusies die getrokken lijken te worden.
Dat zit wel Schnorr.
Voor de onderzoeksopzet maakt dat natuurlijk niet uit. De diverse LLM's confabuleren de onderbouwing voor een essay namelijk gewoon.Stukfruit schreef op dinsdag 1 juli 2025 @ 19:51:
Het is vooral bewijs dat het zo werkt, maar de conclusie die getrokken lijkt te worden vind ik niet kloppen.
Nu moet ik er bij vermelden dat ik nog niet de hele paper heb gelezen, dus wellicht halen ze het zelf ook aan. Maar check even een voorbeeld (pagina 27):
[...]
Wordt hier niet gemist dat als je zo'n prompt door een LLM haalt dat er geen onderbouwde mening uit kán komen rollen omdat het taalmodel herkauwt wat de input voor het model was? Het kán niet redeneren over dit soort zaken.
Wat ik eigenlijk wil zeggen: dit zijn 100% geen vragen waar je een taalmodel voor zou gebruiken.
Natuurlijk zullen er heel veel mensen zijn die dit wel gaan doen omdat ze niet begrijpen wat de mogelijkheden van een taalmodel zijn, maar ik vond het ondanks dat toch wel een belangrijke kantnoot.
Het heeft nogal wat gevolgen voor de conclusies die getrokken lijken te worden.
Het gaat er binnen de uitkomsten verder ook helemaal niet zozeer om of één en ander inhoudelijk juist is. Maar meer om te toetsen wat het effect is op bijvoorbeeld memory retention. Ben jij in staat om adequaat te onthouden wat jij net in je essay hebt geschreven.
Waarin de uitkomsten in zekere zin ook niet geheel verrassend zijn. Vervang LLM door "vriend X met altijd goede cijfers" en het resultaat zal voor de gemiddelde middelbare scholier niet veel anders zijn geweest. Des te meer werk een ander levert, des te minder dat het bij jezelf beklijft.
De vraag is verder natuurlijk nog altijd wel, is dit erg?
Persoonlijk denk ik het niet direct. Sure, mensen moeten weten wat de beperkingen zijn van modellen. Maar dit is vergelijkbaar zoals velen van ons opgegroeid zijn met online zin van onzin onderscheiden. Information at our fingertips. In plaats van alles nog tot in den treuren stampen.
Eén en ander is in loop der jaren gewoon komen te verschuiven, van:
1. Stampen van rijtjes, beschikken over parate kennis;
2. Naar weten hoe informatie online te vinden, informatie op waarde te schatten;
3. Tot weten welke modellen voor welke vraag te gebruiken, hernieuwd beschikken over parate kennis (by proxy).
Stap 3 zijn we natuurlijk nog niet helemaal. Maar naarmate a) modellen zich ontwikkelen en b) de gemiddelde persoon een beter begrip ontwikkeld van de diverse modellen, komt dit vanzelf. Er zal al snel natuurlijk wel een generatie overheen gaan alvorens je dit bereikt.
En net als dat er nu nog altijd mensen zijn die het allemaal maar onzin vinden om informatie te googlen, online bronnen te raadplegen, etc. Vinden dat alles parate kennis dient te zijn. Zullen er natuurlijk ook nog lange tijd mensen zijn die zullen gaan propageren zelf te moeten weten waar één en ander te vinden.
Terugkerend op de onderzoeksopzet, is dit verder natuurlijk ook gewoon mede bepalend voor de uitkomst:
Stage 4: Essay Writing Task
Once the participants were done with the calibration task, they were introduced to their task:
essay writing. For each of three sessions, a choice of 3 topic prompts were offered to a
participant to select from, totaling 9 unique prompts for the duration of the whole study (3
sessions). All the topics were taken from SAT tests. Here are prompts for each session:
Vervang LLM weer door vriend X. Indien ik vriend X in belangrijke mate of geheel mijn essay laat schrijven, en dit inlever bij de docent, met de opdracht "schrijf een essay". Dan wordt het achteraf natuurlijk ook lastig selectief quoten. Dit was de opdracht namelijk helemaal niet.Post-assessment interview analysis
Following the task completion, participants were then asked to discuss the task and their
approach towards addressing the task.
The questions included (slightly adjusted for each group):
29
...
3. Can you quote any sentence from your essay without looking at it?
If yes, please, provide the quote.
...
Ergens zie ik dit soort resultaten dan ook een beetje als een open deur.
Verder zijn er natuurlijk ook een aantal conclusies waarvan translatie naar dagelijkse praktijk in twijfel te trekken valt. Bijvoorbeeld op vlak van creativiteit.
De studie opzet in deze is zo namelijk ook weer bepalend.
In dit geval krijgen de studie deelnemers zelf de keuze om een essay te schrijven, uit een set van opdrachten, naar eigen keuze. Hierin kun je er dus voor kiezen om een onderwerp te kiezen welk redelijk in je eigen straatje ligt. Dat het in dit geval creativiteit niet ten goede komt, door een LLM een belangrijk deel voor te laten kauwen, is wederom natuurlijk weer een open deur.
Maar veel interessanter is het natuurlijk om te weten, hoe zit dit bijvoorbeeld op moment dat je iets moet schrijven dat in zekere zin ver buiten de eigen comfort zone ligt, buiten de directe eigen expertise, en iets dat je gewoonlijk liever uit de weg gaat. Het zou mij niet verbazen om te zien dat de conclusies in dat geval, totaal anders zouden zijn.
Eerst zien, dan geloven. Binnen mijn eigen werkveld, werd inmiddels alweer bijna 10 jaar geleden tijdens de opmars van AI geroepen dat nieuwe radiologen eigenlijk maar beter een andere opleiding konden gaan zoeken. Binnen een klein aantal jaar zouden wij volledig vervangen zijn. Ook een aantal Nederlandse politici hebben dit idee nog wel eens geroepen.champion16 schreef op maandag 19 mei 2025 @ 19:01:
CPO (chief product officer) van OpenAI heeft 3 dagen geleden gezegd dat hun coding agent (Codex) van junior engineer naar senior (6 maanden) en architect (1 jaar) zal gaan.
(Bron: YouTube: A conversation with OpenAI’s Chief Product Officer, Kevin Weil).
Wat denken we hiervan? Dat zou betekenen dat binnen een jaar een groot deel van het werk van een IT er zal verdwijnen...
Zal heus wel een wij van wc eend gedeelte in zitten, maar wel lastig..
Ondertussen zijn we bijna 10 jaar verder. Is AI een leuk hulpmiddel binnen een zeer beperkt aantal vraagstellingen. Is er nog geen enkel AI pakket dat stand-alone bijvoorbeeld een CT onderzoek volledig beoordeelt, in plaats van enkel het doen beantwoorden van een zeer afgebakende subvraag. En zelfs beantwoorden van die subvraag, kan nog geen enkel product in de dagelijkse praktijk ook maar echt nabij medisch verantwoord.
In belangrijke mate zit er natuurlijk ook gewoon veel technology push achter. Er gaat veel geld om in de AI industrie. Het is een lucratieve business. En daarin is het natuurlijk ook voornamelijk belangrijk om shareholders een worst voor te houden.
Wat ik probeerde te zeggen is dat je de genoemde conclusies niet kan uitsmeren over de gehele bevolking omdat het er meer op lijkt dat dit hetzelfde effect gaat versterken dat al jaren gaande is en zich heeft geuit in het gedrag op o.a. sociale media.
Je zou het zelfs als iets positiefs kunnen interpreteren en aannemen dat mensen er gemiddeld genomen eventueel juist meer van kunnen opsteken, omdat veel mensen überhaupt niet zo diep zouden gaan met bepaalde zaken. Zie de extremistische hoek waarin zaken opvallend vaak worden versimpeld en oorzaak wordt genegeerd.
Maar goed, dan komt commercie weer om de hoek kijken, dus die hoop heb ik helaas niet
Je zou het zelfs als iets positiefs kunnen interpreteren en aannemen dat mensen er gemiddeld genomen eventueel juist meer van kunnen opsteken, omdat veel mensen überhaupt niet zo diep zouden gaan met bepaalde zaken. Zie de extremistische hoek waarin zaken opvallend vaak worden versimpeld en oorzaak wordt genegeerd.
Maar goed, dan komt commercie weer om de hoek kijken, dus die hoop heb ik helaas niet
[ Voor 10% gewijzigd door Stukfruit op 01-07-2025 21:59 ]
Dat zit wel Schnorr.
En wanneer je als shareholder dan de vraag aan AI stelt: "Wat zit er in die worst?"psychodude schreef op dinsdag 1 juli 2025 @ 21:38:
[...]Het is een lucratieve business. En daarin is het natuurlijk ook voornamelijk belangrijk om shareholders een worst voor te houden.
Dan krijgt deze waarschijnlijk als antwoord terug: "Things you like".
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Is hier rekening gehouden met het feit dat AI gebruikers wellicht van nature minder creatief denken en zich dus sowieso sneller tot AI richten ipv de creatieve denkers die het eerst zelf willen proberen. Dat zou al meteen een bias geven.boxlessness schreef op dinsdag 1 juli 2025 @ 19:26:
[...]
Voor wie 200+ pagina's aan studie willen doorspitten over dit onderwerp.
Ze hebben dus hersenscans gemaakt (resultaten in de paper vanaf pagina 76) van wel/niet AI-gebruikers bij bepaalde taken en vonden een afname in hersenactiviteit geassocieerd met creatief denken bij de wel AI-gebruikers.
De theorie hierachter is dat het offloaden van cognitieve taken naar een AI ten koste gaat van onze eigen capaciteit omdat we ons brein dan minder gebruiken (net zoals je fysiek sterker wordt wanneer je je spieren regelmatig gebruikt).
Dit dus.
De deelnemers zijn willekeurig in drie groepen ingedeeld en hebben taken gedaan met/zonder AI, dus er is geen bias van mensen die een voorkeur hebben om wel/niet met AI te werken.FunkyTrip schreef op woensdag 2 juli 2025 @ 09:41:
[...]
Is hier rekening gehouden met het feit dat AI gebruikers wellicht van nature minder creatief denken en zich dus sowieso sneller tot AI richten ipv de creatieve denkers die het eerst zelf willen proberen. Dat zou al meteen een bias geven.
Men heeft hier het directe/korte-termijn effect gemeten van het gebruik van AI.
Dat wat jij wilt weten is of je meetbaar "dommer" wordt over de lange termijn wanneer je AI gebruikt. Helaas is dat door (onder andere) de bias die jij noemt waarschijnlijk niet betrouwbaar te meten.
Daar zal vast wel eens een studie over komen. De OECD heeft al eens wat gezegd over correlatie met stagnerende/afnemende literacy/numeracy rates en een correlatie met "digitalisering" (p114 voor grafiekje).
Ik kom wel eens tegen dat daar verbanden worden gelegd met o.a. telefoongebruik, social media, en nu ook AI. Met name sinds deze dingen psychologische dark-patterns inzetten om aandacht vast te houden (o.a. om zo veel mogelijk advertenties te slijten), in plaats van om echt behulpzame/nuttige tools te zijn. Maar ik weet niet hoe betrouwbaar dat is want mijn bron daarvoor is een beetje de pop-science-hoek.
De key is hier natuurlijk het dikgedrukte. En ik denk dat veel mensen hier in toenemende mate problemen mee hebben. Er wordt wel eens gekscherend gezegd, "Het staat op het internet, dus het is waar", maar hele volksstammen geloven daar ook echt in. We hebben hier niet voor niets topics over het vinden van betrouwbare bronnen.psychodude schreef op dinsdag 1 juli 2025 @ 21:38:
[...]
Eén en ander is in loop der jaren gewoon komen te verschuiven, van:
1. Stampen van rijtjes, beschikken over parate kennis;
2. Naar weten hoe informatie online te vinden, informatie op waarde te schatten;
3. Tot weten welke modellen voor welke vraag te gebruiken, hernieuwd beschikken over parate kennis (by proxy).
Het probleem met producten zoals ChatGPT is dat dat op waarde schatten lastiger is, omdat er minder duidelijkheid is wat de bronnen zijn waarop de informatie gebaseerd is.
Dat is denk ik de belangrijkste kort-door-de-bocht conclusie: dat mensen minder nadenken en sneller klakkeloos aannemen wat AI zegt.
Daarnaast heeft het artikel het ook over het homogeniseren van de resultaten. Ik heb het zelf wel eens geprobeerd door ChatGPT recensies te laten schrijven van een aantal films. Dan zie je vanzelf dat deze recencies allemaal hetzelfde stramien volgen, alsof het een template is wat ingevuld wordt: dezelfde opbouw, dezelfde woordkeuzes, dezelfde eenheidsworst.
Maar daarin zit voor een deel dus weer gewoon het element van tijd.autje schreef op woensdag 2 juli 2025 @ 11:36:
[...]
De key is hier natuurlijk het dikgedrukte. En ik denk dat veel mensen hier in toenemende mate problemen mee hebben. Er wordt wel eens gekscherend gezegd, "Het staat op het internet, dus het is waar", maar hele volksstammen geloven daar ook echt in. We hebben hier niet voor niets topics over het vinden van betrouwbare bronnen.
Het probleem met producten zoals ChatGPT is dat dat op waarde schatten lastiger is, omdat er minder duidelijkheid is wat de bronnen zijn waarop de informatie gebaseerd is.
Dat is denk ik de belangrijkste kort-door-de-bocht conclusie: dat mensen minder nadenken en sneller klakkeloos aannemen wat AI zegt.
Daarnaast heeft het artikel het ook over het homogeniseren van de resultaten. Ik heb het zelf wel eens geprobeerd door ChatGPT recensies te laten schrijven van een aantal films. Dan zie je vanzelf dat deze recencies allemaal hetzelfde stramien volgen, alsof het een template is wat ingevuld wordt: dezelfde opbouw, dezelfde woordkeuzes, dezelfde eenheidsworst.
En zeker, er zal altijd gewoonweg een soort normaal verdeling blijven binnen de populatie. Maar dat is natuurlijk niets nieuws. Net als dat er mensen zijn die bronnen niet op waarde kunnen schatten, zijn er ook mensen die er weinig tot niets van bakten qua stampen van kennis. Dit ga je natuurlijk nooit ontnemen. Ook qua humane intelligentie bestaan er tenslotte verschillen.
Voor wat betreft het verloop naar op waarde schatten van AI, is stap 1 natuurlijk om te komen tot een punt waarop je niet eerst de vraag stelt, is het antwoord dat dit model weergeeft waar ja of nee. Maar nog een stap terug, is dit model geschikt om deze prompt te doen beantwoorden.
Zodra je voor jezelf de vraag kunt beantwoorden:
Is een taalmodel geschikt om betrouwbaar feitelijk correcte informatie aan te leveren?
Pas dan kun je eigenlijk adequaat doorgaan met de volgende vraag:
Is de geleverde informatie daadwerkelijk correct.
Maar in het geval van chat GPT zou je daarin dus eigenlijk al afgehaakt moeten zijn op dat punt, generatieve taalmodellen zijn niet een toepassing om in te zetten wanneer het gewenste doel feitelijke accuratesse is. Je kunt het bijvoorbeeld prima gebruiken om als basis te laten fungeren voor een tekst welk je genereerd. Maar de daadwerkelijke feiten, zul je vanuit elders dienen te verifiëren en/of aan te vullen.
Verder klopt dat laatste natuurlijk tot op zekere hoogte. Je hebt zeker wel invloed op de manier waarop dit soort taalmodellen komen tot de gegenereerde tekst.
Zie bijvoorbeeld onderstaande voorbeelden:
Critical Appraisal of Star Wars Episode I: The Phantom Menace
An incisive look at the film’s legacy
Star Wars Episode I: The Phantom Menace, released in 1999, serves as both the long-awaited prelude to George Lucas’s legendary saga and a source of fervent debate. The film dazzles with its pioneering visual effects and the grandeur of John Williams’s score, introducing memorable characters like Qui-Gon Jinn and the enigmatic Darth Maul. However, its narrative is encumbered by political exposition and an over-reliance on CGI, which sometimes overshadows character development and emotional depth. The introduction of Jar Jar Binks divided audiences, detracting from the gravitas of the story. While younger viewers may appreciate its spectacle, older fans often lament its lack of the original trilogy’s charm and subtlety. Despite these critiques, The Phantom Menace offers moments of excitement—most notably the thrilling podrace and climactic duel—securing its place as a visually ambitious, if narratively uneven, entry in the Star Wars canon.
Waarin de woordkeuze in dit geval beïnvloedt wordt door enerzijds te verzoeken voor een critical appraisal en anderzijds een review geschreven door een 12-jarige. Beide varianten binnen 150 woorden.My Review of Star Wars Episode I: The Phantom Menace
By a 12-Year-Old Star Wars Fan
Star Wars Episode I: The Phantom Menace is super cool! I really liked the podracing scene—it was so fast and exciting, I felt like I was in the race with Anakin. Darth Maul is probably my favourite villain because he looks awesome with his double-sided red lightsaber and those face tattoos. The fight at the end with Qui-Gon Jinn and Obi-Wan Kenobi versus Darth Maul was the best part—so much action! Jar Jar Binks is kind of funny, but sometimes he’s a bit annoying. I didn’t totally get all the talk about politics and trade stuff, but the spaceships and aliens made up for it. The music was epic and made everything feel more adventurous. It's not as good as the old Star Wars movies my parents like, but it's still a really fun movie with lots of cool scenes and awesome battles!
Dit uiteraard enkel en alleen even bedoeld als snel voorbeeld. Maar je kunt hierin dus zeker nog verder sturing geven. Als ook er bijvoorbeeld voor verkiezen om bepaalde tekstdelen bijvoorbeeld te laten herschrijven.
Onder de streep is dat waar generatieve AI natuurlijk wel goed in is. Binnen no-time tekst op papier zetten. Of dit voor jezelf handig is, is natuurlijk sterk afhankelijk van de persoonlijke situatie. Maar zelf schrijf ik bijvoorbeeld redelijk wat protocollen, business cases, onderzoek aanvragen, etc. En bij veel van dit soort zaken wordt ook vaak om toelichting in begrijpelijke taal gevraagd.
Daarin is dit soort generatieve AI perfect. Een lokaal draaiend LLM kan ik gewoon vragen om bijvoorbeeld op B1 niveau een bepaald segment samen te vatten in een x-aantal woorden. En ik hoef vervolgens alleen nog maar door te lezen of er geen hele gekken dingen in zijn komen te staan qua feitelijke onjuistheden.
... en dus val je weer terug op parate kennis? Want opzoeken op het internet wordt steeds moeilijker. Google geeft je standaard het Gemini-overzicht (wat vrijwel altijd potsierlijke fouten bevat), en de bovenste zoekresultaten zijn gekaapt door bedrijven die met LLMs onzinteksten over je onderwerp genereren.psychodude schreef op woensdag 2 juli 2025 @ 19:56:
En ik hoef vervolgens alleen nog maar door te lezen of er geen hele gekken dingen in zijn komen te staan qua feitelijke onjuistheden.
Op termijn lijkt het risico toch een toekomst te zijn waarin naslagwerken weer belangrijk worden. Hoe vergeelder hoe beter. Ik zou bijna mensen willen aanraden om hun verstofte Winkler-Prins edities niet aan de voddenboer mee te geven; ooit zijn ze weer geld waard.
Verder gaat het niet alleen om feitelijke onwaarheden. LLMs koppelen hun gigantische taalvaardigheid, en hun onbetrouwbare feitenkennis aan een bijzonder laag redeneringsvermogen. zo kunnen ze geen schaak spelen. Ze kunnen honderden openingen oplepelen, maar begrijpen hoe de stukken bewegen, iets wat je een kind van zes kunt uitleggen, lukt niet. De eerder aangehaalde studie van Apple laat ook zien dat LLMs eenvoudige puzzels niet kunnen oplossen, zelfs als je ze vooraf de oplossing geeft: een LLM heeft misschien iets wat je "concepten" zou noemen, en begrijpt simpele verbanden er tussen, maar niet veel meer dan dat.
En dat maakt het moeilijk voor ons als mensen om te redeneren over de beperkingen van LLMs; we zijn er (onterecht) aan gewend om taalvaardigheid te gebruiken als indicator voor intelligentie. Iemand die goed en correct kan schrijven zal ook wel goed en correct kunnen redeneren. Dat is natuurlijk nooit waar geweest, maar het verschil tussen de verschillende vormen van intelligentie wordt nu wel op de spits gedreven.
En ik schrik een beetje als mensen vertellen dat ze veel werk nu aan LLMs kunnen uitbesteden. Zijn er echt zoveel mensen die veel tijd kwijt zijn aan hersenloos schrijfwerk? Of worden er nu op basis van misplaatst vertrouwen allerlei slordigheden geïntroduceerd?
Ik denk dat het zelfs iets te ver gaat om het feitenkennis te noemen. Een LLM 'weet' niet meer dan dat in de trainingsdata bepaalde woorden veel in elkaars nabijheid voor komen. Daarbij is wel enige correlatie met feiten, maar is wezenlijk iets anders dan feitenkennis.CVTTPD2DQ schreef op woensdag 2 juli 2025 @ 22:27:
[...]
LLMs koppelen hun gigantische taalvaardigheid, en hun onbetrouwbare feitenkennis
Ik zou zeggen dat een LLM helemaal geen redeneringsvermogen heeft. Bobo's van sommige AI bedrijven zeggen wel eens dat (hun) LLM wel redeneringsvermogen heeft, anderen zeggen desgevraagd dat LLM's dat niet hebben - alleen is dat laatste niet iets om reclame mee te maken dus dat horen we niet zo vaak, daar moet je naar zoeken. https://www.youtube.com/@MachineLearningStreetTalkaan een bijzonder laag redeneringsvermogen. zo kunnen ze geen schaak spelen.
Intussen beweert niemand dat LLM's tevens Reasoning Models zijn noch dat die een World Model hebben (voor mensen essentieel voor het begrijpen vd realiteit), aan AGI wordt immers nog gewerkt. Voor hoe dicht bij AGI al dan niet is geldt hetzelfde als redeneringsvermogen: 'nog ver weg' is niet spannend dus daar ga je geen investeerders mee werven, dus horen we dat minder vaak dan de bewering dat het een kwestie van een paar jaar is.
Het probleem is dat ik als filmcriticus niet de ene keer de ene stijl kan kiezen, en bij de volgende film een andere stijl. Ik zal dus altijd de 'critical appraisal' optie kiezen, en dan krijg je altijd recensies in de stijl zoals die hierboven, zonder enige originele invalshoek een opsomming van de goede en slechte punten van de film. Waarom die punten goed of slecht zijn kun je er niet tot nauwelijks uithalen, en dat is nou juist wat een recensie moet doen.
Daarnaast kun je bijna in één oogopslag zien dat deze tekst door AI geschreven is, omdat een persoonlijke noot ontbreekt. Er is geen originaliteit, waardoor het niet uitnodigt om dit stuk te lezen. Ik weet dat LLM's geen creativiteit hebben, maar het probleem is dat je dan dus dit soort vlakke teksten krijgt.
Daarnaast kun je bijna in één oogopslag zien dat deze tekst door AI geschreven is, omdat een persoonlijke noot ontbreekt. Er is geen originaliteit, waardoor het niet uitnodigt om dit stuk te lezen. Ik weet dat LLM's geen creativiteit hebben, maar het probleem is dat je dan dus dit soort vlakke teksten krijgt.
Allicht, want een llm baseert zijn output op het meest waarschijnlijke / gemiddelde van zijn trainingsdata. Het is te sturen met "lovend" of "critisch", "zakelijk" of "opgewekt", maar het zal ook binnen die parameters altijd het vlakke gemiddelde zijn en niet origineel aanvoelen.autje schreef op donderdag 3 juli 2025 @ 07:08:
Het probleem is dat ik als filmcriticus niet de ene keer de ene stijl kan kiezen, en bij de volgende film een andere stijl. Ik zal dus altijd de 'critical appraisal' optie kiezen, en dan krijg je altijd recensies in de stijl zoals die hierboven, zonder enige originele invalshoek een opsomming van de goede en slechte punten van de film. Waarom die punten goed of slecht zijn kun je er niet tot nauwelijks uithalen, en dat is nou juist wat een recensie moet doen.
Daarnaast kun je bijna in één oogopslag zien dat deze tekst door AI geschreven is, omdat een persoonlijke noot ontbreekt. Er is geen originaliteit, waardoor het niet uitnodigt om dit stuk te lezen. Ik weet dat LLM's geen creativiteit hebben, maar het probleem is dat je dan dus dit soort vlakke teksten krijgt.
Een llm ai is niet meer dan de meest waarschijnlijke vrij van woorden die in zijn trainingsdata bij elkaar stonden.
Prima voor code, zakelijke texten of samenvattingen.
Minder voor werkelijk goed uitgewerkte texten of echte creativiteit.
Wel prima om een basis te genereren door bepaalde bestaande concepten te combineren (Harry Potter in de stijl van Shakespeare). Maar de creativiteit van de vraag en waarom het een goed/leuk/nieuw idee zou zijn, die komt bij de opdrachtgever vandaan.
[ Voor 3% gewijzigd door DropjesLover op 03-07-2025 07:22 ]
BThGvNeOA
Bond Tegen het Gebruik van Nutteloze en Onbekende Afkortingen!
Gewoon uitschrijven wat je bedoelt is zo moeilijk niet... PR (persoonlijk record?), ICE/M/A (verbrandingsmotor?), kdv (kinderdagverblijf), DA (dierenarts?)etc...,
En toch is het op scholen inmiddels goed gebruik om AI je opstel te laten schrijven, en begint zelfs de pers eraan mee te doen.
Mijns inziens moeten we dit niet normaliseren, omdat ik vrees dat we zelf hierdoor analytisch denkvermogen verliezen.
Mijns inziens moeten we dit niet normaliseren, omdat ik vrees dat we zelf hierdoor analytisch denkvermogen verliezen.
Nee, niet echt. Je valt terug op een combinatie van alles.CVTTPD2DQ schreef op woensdag 2 juli 2025 @ 22:27:
[...]
... en dus val je weer terug op parate kennis? Want opzoeken op het internet wordt steeds moeilijker.
Binnen protocol en richtlijn ontwikkeling bijvoorbeeld val je niet terug op parate kennis. Onderdeel hiervan is vaak in het begin een literatuur search. Middels systematisch review en eventuele meta-analyse destilleer je hieruit de feiten. Daarin zit in belangrijke mate het op waarde schatten. Hetgeen verder natuurlijk ook al start bij überhaupt welke search engines je gebruikt. In dit kader, is dat bijvoorbeeld niet regulier google search, maar te denken pubmed, scopus, web of science als ook cross-referencing.
Het schrijven van de medische richtlijnen/protocollen hierin, zou ik nog niet snel uitbesteden aan een LLM. Niet zozeer omdat deze niet kan schrijven, maar meer omdat de LLM niet bekend is met de gebruikelijke formats voor e.g., eigen centrum, landelijke vakverenigingen of FMS.
Translatie naar jip-en-janneke taal vervolgens is echter natuurlijk gewoon een extra klusje. Overigens verder ook zo eenvoudig helemaal niet eens. Met name het komen tot een B1 niveau, is in de praktijk best lastig. Een LLM daarentegen genereert dit binnen no-time. Dat scheelt veel tijd. Zeker bij langere teksten. Bijvoorbeeld binnen het komen tot patiënten informatie folders. Schrijven in een andere stijl komt uiteindelijk toch minder natuurlijk, en kost derhalve meer moeite, meer tijd.
Zonder inzet van een LLM kun je voor het schrijven van een patiënten informatie folder bijvoorbeeld zit toch al snel een uur of 6 - 8 eraan zitten om alle facetten te herschrijven naar begrijpelijk Nederlands. Met ondersteuning van een LLM, kan ik dit aanzienlijk reduceren. Beperkt het grotendeels tot een vorm van proof-readen. Binnen ongeveer een uurtje kan ik met ondersteuning van LLM een bestaand lokaal protocol en relevante delen van richtlijn teksten naar een patiënten informatiefolder hebben laten herschrijven en inhoudelijk rechttrekken.
Tot nader order beschouw ik een llm als een stuk gereedschap zoals de mens er al vele andere heeft; een rekenmachine, tekstverwerker, hamer, boormachine,...
Ik heb er voor specifieke taakjes al veel plezier van gehad, bijvoorbeeld bij het configureren van home assistant. Ik zou daarin zeker niet zo snel en zo ver geraakt zijn als waar het nu staat. De basis snap ik zelf wel allemaal maar de technische invulling (yaml) er van is zodanig foutgevoelig dat ik het zelf al lang zou opgeven.
Maar dan nog is het niet van: programmeer eens dit ideetje. Dat werkt nooit.
Je moet het nog altijd zelf in kleine stukjes opdelen en zorgvuldig beschrijven. En dan nog is de kans dat het van de eerste keer werkt minder dan 20%. Maar debuggen met behulp van een llm werkt voor mij best goed. De llm 'ziet' andere dingen dan ik en dat werkt best wel complementair.
Ik heb er voor specifieke taakjes al veel plezier van gehad, bijvoorbeeld bij het configureren van home assistant. Ik zou daarin zeker niet zo snel en zo ver geraakt zijn als waar het nu staat. De basis snap ik zelf wel allemaal maar de technische invulling (yaml) er van is zodanig foutgevoelig dat ik het zelf al lang zou opgeven.
Maar dan nog is het niet van: programmeer eens dit ideetje. Dat werkt nooit.
Je moet het nog altijd zelf in kleine stukjes opdelen en zorgvuldig beschrijven. En dan nog is de kans dat het van de eerste keer werkt minder dan 20%. Maar debuggen met behulp van een llm werkt voor mij best goed. De llm 'ziet' andere dingen dan ik en dat werkt best wel complementair.
Wederom, dan heb je dus een autoritatieve bibliotheek nodig, waarvan je met zekerheid kunt zeggen dat deze niet "vervuild" is door LLMs. Voor medische onderwerpen lijkt die gelukkig te bestaan, maar wetenschappelijke publicaties gaan al de verkeerde kant op, en voor meer prozaïsche onderwerpen ben je overgeleverd aan de luimen van het internet.psychodude schreef op donderdag 3 juli 2025 @ 07:32:
Nee, niet echt. Je valt terug op een combinatie van alles.
Binnen protocol en richtlijn ontwikkeling bijvoorbeeld val je niet terug op parate kennis. Onderdeel hiervan is vaak in het begin een literatuur search. Middels systematisch review en eventuele meta-analyse destilleer je hieruit de feiten. Daarin zit in belangrijke mate het op waarde schatten. Hetgeen verder natuurlijk ook al start bij überhaupt welke search engines je gebruikt. In dit kader, is dat bijvoorbeeld niet regulier google search, maar te denken pubmed, scopus, web of science als ook cross-referencing.
Het wordt nog interessanter als je schrijf/samenvattingswerk uitbesteed, omdat het de capaciteiten van een enkel persoon te boven gaat. Het is voor mensen altijd mogelijk geweest om zaken te verzinnen, maar geloofwaardig grote lappen verzonnen tekst schrijven gaat ons een stuk moeilijker af dan een LLM. De tekst was vroeger een "bewijs" an sich dat er tenminste een persoon over de inhoud had nagedacht.
BadRespawn schreef op woensdag 2 juli 2025 @ 23:11:
Ik denk dat het zelfs iets te ver gaat om het feitenkennis te noemen. Een LLM 'weet' niet meer dan dat in de trainingsdata bepaalde woorden veel in elkaars nabijheid voor komen. Daarbij is wel enige correlatie met feiten, maar is wezenlijk iets anders dan feitenkennis.
Ik val zelf niet zo over antropomorfe terminologie. Menselijk geheugen is ook geen fotografische opname; onze herinneringen zijn net zo goed wazig omlijnde verbanden. Als er een wezenlijk verschil is met de herinneringen van een LLM, dan is het dat we onze kennis kunnen plaatsen in een model van de wereld;BadRespawn schreef op woensdag 2 juli 2025 @ 23:11:
Ik zou zeggen dat een LLM helemaal geen redeneringsvermogen heeft.
maar dan komen we aan je tweede opmerking, ik denk dat LLMs wel degelijk een (zeer beperkt) model van de wereld hebben; een model hoeft nou eenmaal niet volledig, correct of consistent te zijn. Correlaties tussen woorden zijn een "model".
Om een voorbeeld te geven: er zijn genoeg mensen die de route naar hun werk onthouden door het bordje van de juiste afslag te herkennen, en nauwelijks een idee hebben van de richting of afstand die ze rijden. Het "model" wat ze hebben (een reeks afslagen) is voldoende voor het doel.
Op dezelfde manier zie je dat LLMs met een heel beperkt wereldmodel de indruk geven dat ze veel meer "snappen" dan dat ze daadwerkelijk doen.
Maar goed, dan hebben wij dus de taak om om te gaan met een ander soort intelligentie dan waar we aan gewend zijn, eentje met een fenomenaal vermogen om ons om de tuin te leiden, maar tegelijkertijd beperkingen die we moeilijk kunnen inschatten.
Laten we even stoppen met AI intelligent te noemen, dat is namelijk niet zo.CVTTPD2DQ schreef op donderdag 3 juli 2025 @ 21:17:
[...]Maar goed, dan hebben wij dus de taak om om te gaan met een ander soort intelligentie dan waar we aan gewend zijn, eentje met een fenomenaal vermogen om ons om de tuin te leiden, maar tegelijkertijd beperkingen die we moeilijk kunnen inschatten.
Lees dit artikel maar 'ns, dan weet je waarom.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Ok, dus je leest mijn post niet, maar reageert wel met het delen van een artikel dat stelt dat een LLM niet intelligent kan zijn ... omdat het geen lichaam heeft. En halverwege het artikel worden de doelpaaltjes verschoven van intelligentie naar bewustzijn, wat natuurlijk niet hetzelfde is.Yaksa schreef op donderdag 3 juli 2025 @ 21:46:
Laten we even stoppen met AI intelligent te noemen, dat is namelijk niet zo.
Lees dit artikel maar 'ns, dan weet je waarom.
In een discussie over intelligentie moet je goed kaderen wat je onder intelligentie verstaat. Schaakspelers werden ooit als zeer intelligente mensen gezien, en dat zijn ze over het algemeen ook. Iemand als Magnus Carlsen verslaat jou en mij niet alleen op het schaakbord, maar waarschijnlijk ook op IQ-tests. En toch kan Carlsen weer niet winnen van een schaakprogramma. Dat schaakprogramma is zeker niet bewust, maar dat hoeft ook niet. Het enige voordeel dat bewustzijn aan Carlsen geeft is dat hij snapt dat-ie van het bord kan weglopen.
Essays schrijven werd niet zo lang geleden gezien als een goede maatstaf van intelligentie. Een belangrijk deel van de academische wereld behaalde haar titels niet met experimenteel onderzoek, maar met het samenvatten en hercombineren van andere bronnen. LLMs hebben daar nu een aardig gat in geslagen. LLMs zijn ook niet bewust, maar het blijkt dat dat niet zo belangrijk is als we dachten. Ze zijn nog niet zo goed als mensen, maar het is een verdomd tijdrovende klus om het verschil tussen een menselijk en een LLM-essay te vinden.
Zoals ik al zei, in tegenstelling tot de auteur van dat artikel heb ik geen bezwaar tegen het gebruik van vermenselijkende terminologie voor LLMs; intelligentie is ooit gedefinieerd als hetgeen wat mensen onderscheidt van dieren, en nu computers allerlei truukjes beter lijken te kunnen dan wijzelf is de consequentie dat die woorden ineens op computerprogramma's van toepassing zijn.
Als we dat niet willen kan dat ook, maar dan moeten we nieuwe terminologie verzinnen.
En om het nog erger te maken: taalmodellen zoals de GPT's van ChatGPT (in dit geval via duck.ai) beginnen ondertussen sturend op te treden op een manier die niet leidt tot kloppende reacties.
Vanmiddag vroeg ik iets over de Big Beautiful Bill in de VS, en hoewel dat hier geheel offtopic is, is ChatGPT nu MAGA-teksten aan het reproduceren die aantoonbaar (door het bv. uit te rekenen) niet kloppen.
De Bill wordt positief neergezet met veel slagen om de arm, waardoor de uitspraken goed passen bij degene die uit het huidige Witte Huis komen. Wat je er ook van vindt: het is nooit positief als de producent van WC-eend leidend lijkt te zijn bij het informeren van haar klanten. Je kan niet zomaar positief over iets zijn omdat de producent dat wil.
Vanmiddag vroeg ik iets over de Big Beautiful Bill in de VS, en hoewel dat hier geheel offtopic is, is ChatGPT nu MAGA-teksten aan het reproduceren die aantoonbaar (door het bv. uit te rekenen) niet kloppen.
De Bill wordt positief neergezet met veel slagen om de arm, waardoor de uitspraken goed passen bij degene die uit het huidige Witte Huis komen. Wat je er ook van vindt: het is nooit positief als de producent van WC-eend leidend lijkt te zijn bij het informeren van haar klanten. Je kan niet zomaar positief over iets zijn omdat de producent dat wil.
Dat zit wel Schnorr.
Het gaat over meer dan terminologie, het gaat over eigenschappen aan AI toekennen die het niet heeft.CVTTPD2DQ schreef op donderdag 3 juli 2025 @ 21:17:
[...]
Ik val zelf niet zo over antropomorfe terminologie.
Overigens is dat geen nieuw verschijnsel, het bestond al doen AI veel simpeler was en LLMs nog niet bestonden. Wikipedia: ELIZA effect
Een LLM kan ook de indruk wekken uberhaubt its te snappen simpelweg doordat het een remix van trainingsdata ophoest.Op dezelfde manier zie je dat LLMs met een heel beperkt wereldmodel de indruk geven dat ze veel meer "snappen" dan dat ze daadwerkelijk doen.
Het is alleen een 'vermogen ons om de tuin te leiden' als de verwachting is dat het de waarheid verteld, maar voor een LLM is wat dat betreft alle output die het produceert hetzelfde.Maar goed, dan hebben wij dus de taak om om te gaan met een ander soort intelligentie dan waar we aan gewend zijn, eentje met een fenomenaal vermogen om ons om de tuin te leiden, maar tegelijkertijd beperkingen die we moeilijk kunnen inschatten.
"...i don't like the term hallucination because it implies that the model can do something that is not hallucination, but really all that LLM's do on their own is hallucinate, it just so happens that sometimes that hallucination lines up with what we know how the world is." - Nick Frosst, co-founder van Cohere
YouTube: Is AGI Just a Fantasy?
Ja, en ik vind het interessant dat mensen daar zo stellig over zijn, terwijl we weinig moeite hebben met het praten over de intelligentie van papegaaien, zeehonden of meelwormen.BadRespawn schreef op vrijdag 4 juli 2025 @ 00:48:
Het gaat over meer dan terminologie, het gaat over eigenschappen aan AI toekennen die het niet heeft.
In het eerste geval zien we een effect dat we ook bij LLMs herkennen; een fenomenaal (naar onze maatstaven) imitatievermogen, wat er voor zorgt dat een papegaai soms intelligenter lijkt dan hij is. Desalniettemin is een papegaai ook zonder dat imitatievermogen een intelligente vogel.
Een LLM heeft een complexer neuraal netwerk dan een meelworm; het kan diversere relaties begrijpen. Is een LLM minder intelligent dan een meelworm?
Guillaume Thierry, de auteur van het aangehaalde artikel, haalt de Turingtest aan, wat volgens hem de toetssteen is of een systeem "menselijke intelligentie" vertoont. Dat is een beetje een miskenning van het gedachtenexperiment (want dat was het in in de tijd van Turing) over wat intelligentie nou precies is.
Als je wil zeggen dat LLMs, of dieren, of bepaalde mensen niet intelligent zijn mag je dat van mij doen, maar dan moet je tenminste kunnen beargumenteren wat het is dat ze niet zijn.
En dat doen mensen soms ook.BadRespawn schreef op vrijdag 4 juli 2025 @ 00:48:
Een LLM kan ook de indruk wekken uberhaubt its te snappen simpelweg doordat het een remix van trainingsdata ophoest.
[ Voor 17% gewijzigd door CVTTPD2DQ op 04-07-2025 08:04 ]
Dat geldt ook als je wil zeggen dat LLM's wel intelligent zijn.CVTTPD2DQ schreef op vrijdag 4 juli 2025 @ 08:04:
Als je wil zeggen dat LLMs, of dieren, of bepaalde mensen niet intelligent zijn mag je dat van mij doen, maar dan moet je tenminste kunnen beargumenteren wat het is dat ze niet zijn.
Maar we hebben het over "taalvaardigheid", "feitenkennis" en "redeneringsvermogen". Dat zijn termen die je gebruikt dus ik neem aan dat je weet wat het is (hoef je dus niet te beargumenteren).
[ Voor 7% gewijzigd door BadRespawn op 04-07-2025 12:41 ]
Even aanhakend in de discussie, een jaar of 15 geleden een stevig onderbouwd stuk gelezen tijdens de studie (neuropsychologie) dat de beste PC's van die tijd de cognitieve capaciteit van de simpelste vormen van slakken hebben en dat echte AI nog vele decennia, misschien zelfs honderden jaren van ons verwijderd is. Dat klinkt nu overdreven laag, en je zou denken: nú komen we toch binnenkort bij de zelfdenkende robots? Maar helaas valt het toch echt nog tegen denk ik als ik het brilletje weer opzet dat ik toen in dat stuk leerde. Om dat te snappen even een voorbeeldje hoe onze eigen 'visuele cortex' beelden verwerkt zodat we kunnen zien.
Pak een bakbeest van een PC erbij met een RTX 5090 die op een 4K scherm nog steeds niet fotorealistisch kan renderen. Ja, we komen stapje voor stapje dichterbij, videogames worden echt steeds mooier, maar we zijn er toch echt nog lang niet. In blender render ik met alle lichtinval fotorealistische beelden met 3D modellen erin gemonteerd, een fragmentje van 20 seconden beeld kost rustig 2-3 uur genereren. Videogames líjken realistisch, maar het moment van écht fotorealistisch gamen daar zijn we denk ik nog zo'n 10-15 jaar vanaf. Daarna komt dan dat die PC ook nog niet door de ruimte kan bewegen met het beeld. Als je door de kamers in je huis loopt wordt je pupil razendsnel groter of kleiner om je zicht aan de lichtsterkte aan te passen. Ja, vanuit een donkere bioscoop de buitenlucht in dan moeten we even schakelen, maar probeer je eens voor te stellen hoe enorm geavanceerd en gefinetuned alleen al het verwerken van zicht om je heen is?
Bij AI modellen geldt echt hetzelfde, er zijn al verdomd veel dingen die enorm imposant lijken, én dingen die al heel knap zijn. Maar het blijft voor een groot deel ook echt iets dat soms heel indrukwekkend kan lijken, maar van binnen eigenlijk vrij 'dom' is. Er zijn ook structurele problemen, zoals het bekende fenomeen dat AI steeds meer onzin die het zelf genereert ook versterkt (want hoe meer ervan wordt gemaakt, hoe serieuzer AI dat neemt). Het aanpassingsvermogen van hersenen, die met de algemene evolutie als basis zich constant weer aanscherpen met het principe van survival of the fittest: zover zijn we echt nog niet.
Bedenk dat bij elke technologische ontwikkeling je nú altijd verbaasd bent bij de nieuwste zaken. Maar die allereerste PC met een kleurenscherm uit 1985? Quake 1, het allereerste echte 3D spel? De allereerste iPhone uit 2001? De allereerste VR bril? Als je die nu bekijkt denk je al jeetje wat is dat een verouderd spul en wat gek eigenlijk dat we dat toen "superrealistisch" vonden. Neemt niet weg dat het natuurlijk schitterende ontwikkelingen zijn en ik er ook smullend naar kijk wat de toekomst ons brengt. Want hoe klein de stappen ook zijn, ze zijn voor ons nu al heel groot en er komt echt veel moois aan.
Leuk om klein blikje de toekomst in te kijken, dit interview:
YouTube: Sam Altman: The Future of OpenAI, ChatGPT's Origins, and Building AI...
Voor de liefhebbers, binnenkort komt er ook een opensource ChatGPT model dat je op de eigen PC kan draaien kondit Sam Altman onder andere in deze video aan. Ik ben benieuwd
. Maar daarnaast sowieso mooi om te zien hoe ze 5 jaar geleden nog als kansloos werden weggezet en iedereen ze nu de hemel in prijst. Aanrader voor de liefhebbers die meer willen weten wat de toekomst brengt.
Pak een bakbeest van een PC erbij met een RTX 5090 die op een 4K scherm nog steeds niet fotorealistisch kan renderen. Ja, we komen stapje voor stapje dichterbij, videogames worden echt steeds mooier, maar we zijn er toch echt nog lang niet. In blender render ik met alle lichtinval fotorealistische beelden met 3D modellen erin gemonteerd, een fragmentje van 20 seconden beeld kost rustig 2-3 uur genereren. Videogames líjken realistisch, maar het moment van écht fotorealistisch gamen daar zijn we denk ik nog zo'n 10-15 jaar vanaf. Daarna komt dan dat die PC ook nog niet door de ruimte kan bewegen met het beeld. Als je door de kamers in je huis loopt wordt je pupil razendsnel groter of kleiner om je zicht aan de lichtsterkte aan te passen. Ja, vanuit een donkere bioscoop de buitenlucht in dan moeten we even schakelen, maar probeer je eens voor te stellen hoe enorm geavanceerd en gefinetuned alleen al het verwerken van zicht om je heen is?
Bij AI modellen geldt echt hetzelfde, er zijn al verdomd veel dingen die enorm imposant lijken, én dingen die al heel knap zijn. Maar het blijft voor een groot deel ook echt iets dat soms heel indrukwekkend kan lijken, maar van binnen eigenlijk vrij 'dom' is. Er zijn ook structurele problemen, zoals het bekende fenomeen dat AI steeds meer onzin die het zelf genereert ook versterkt (want hoe meer ervan wordt gemaakt, hoe serieuzer AI dat neemt). Het aanpassingsvermogen van hersenen, die met de algemene evolutie als basis zich constant weer aanscherpen met het principe van survival of the fittest: zover zijn we echt nog niet.
Bedenk dat bij elke technologische ontwikkeling je nú altijd verbaasd bent bij de nieuwste zaken. Maar die allereerste PC met een kleurenscherm uit 1985? Quake 1, het allereerste echte 3D spel? De allereerste iPhone uit 2001? De allereerste VR bril? Als je die nu bekijkt denk je al jeetje wat is dat een verouderd spul en wat gek eigenlijk dat we dat toen "superrealistisch" vonden. Neemt niet weg dat het natuurlijk schitterende ontwikkelingen zijn en ik er ook smullend naar kijk wat de toekomst ons brengt. Want hoe klein de stappen ook zijn, ze zijn voor ons nu al heel groot en er komt echt veel moois aan.
Leuk om klein blikje de toekomst in te kijken, dit interview:
YouTube: Sam Altman: The Future of OpenAI, ChatGPT's Origins, and Building AI...
Voor de liefhebbers, binnenkort komt er ook een opensource ChatGPT model dat je op de eigen PC kan draaien kondit Sam Altman onder andere in deze video aan. Ik ben benieuwd
youtube.com/@hisrep
De CEO's van de vele vele AI bedrijfjes hebben in ieder geval hun job goed gedaan voor wat betreft de marketing van hun product.
LLMs zijn neurale netwerken en mensen maken ook veelvuldig gebruik van neurale netwerken in het dagelijks leven. Denk aan taken zoals lezen, autorijden,... het is een energiebesparende shortcut. Je kan heel goed zijn in lezen maar je hebt niet zelf bedacht hoe je moet lezen en hoe dat effectief werkt in je hoofd. Laat staan dat je dat bij iedere letter die je leest opnieuw zou moeten bedenken.
Een LLM(neuraal netwerk) is een stuk gereedschap en de kunst is om dat gereedschap zo efficiënt mogelijk te gebruiken. Net zoals een hamer veel efficiënter gebruikt wordt in de handen van een timmerman dan in die van een boekhouder.
LLMs zijn neurale netwerken en mensen maken ook veelvuldig gebruik van neurale netwerken in het dagelijks leven. Denk aan taken zoals lezen, autorijden,... het is een energiebesparende shortcut. Je kan heel goed zijn in lezen maar je hebt niet zelf bedacht hoe je moet lezen en hoe dat effectief werkt in je hoofd. Laat staan dat je dat bij iedere letter die je leest opnieuw zou moeten bedenken.
Een LLM(neuraal netwerk) is een stuk gereedschap en de kunst is om dat gereedschap zo efficiënt mogelijk te gebruiken. Net zoals een hamer veel efficiënter gebruikt wordt in de handen van een timmerman dan in die van een boekhouder.
[ Voor 5% gewijzigd door Wozmro op 05-07-2025 20:39 ]
Ik zei dat ze een soort van intelligentie hadden, en een bijzonder laag redeneringsvermogen; aan beide termen werd aanstoot genomen omdat het te veel menselijke kwaliteiten aan een LLM zou toeschrijven.BadRespawn schreef op vrijdag 4 juli 2025 @ 12:36:
Dat geldt ook als je wil zeggen dat LLM's wel intelligent zijn.
Wederom, we lopen tegen het probleem aan dat we nooit specifiek woorden nodig hebben gehad voor niet-menselijke intelligentie. Dat maakt een discussie lastig als je te maken hebt met een computerprogramma dat heel specifiek ontwikkeld is om menselijke (verbale) intelligente na te bootsen. En met dat gegeven heb ik niet zoveel bezwaar tegen roeien met de riemen die we hebben.
En je vindt dat je dan niet hoeft te beargumenteren wat intelligentie is, maar als ik volgens jou impliceer dat ze geen intelligentie hebben dan vindt je dat ik wel moet beargumenteren wat intelligentie is.CVTTPD2DQ schreef op zaterdag 5 juli 2025 @ 22:12:
[...]
Ik zei dat ze een soort van intelligentie hadden, en een bijzonder laag redeneringsvermogen
Als iemand zegt dat een lepel geen intelligentie heeft, moet die dan beargumenteren wat intelligentie is?
Vermoedelijk: nee, want een lepel heeft overduidelijk geen intelligentie.
Bij LLM's is het berekend gemiddelde van opinies dat het minder duidelijk is, omdat er mensen zijn die vanwege het feit dat LLM's oppervlakkig gezien mensachtig gedrag vertonen denken dat LLM's mensachtig eigenschappen hebben.
Dat is alleen een probleem als je vindt dat LLM's wel een vorm van intelligentie hebben.Wederom, we lopen tegen het probleem aan dat we nooit specifiek woorden nodig hebben gehad voor niet-menselijke intelligentie.
We hebben prima riemen om LLMs te beschrijven: als ze geen intelligentie, redeneringsvermogen en feitenkennis hebben, kan je simpelweg niet zeggen dat ze dat wel hebben.En met dat gegeven heb ik niet zoveel bezwaar tegen roeien met de riemen die we hebben.
LLMs zijn gebaseerd op een gesimplificeerd model van een neuraal netwerk. Dat betekent niet dat ze alle eigenschappen hebben van neuronen en signaaltransmissie binnen de hersenen (sterker nog, ze missen grote delen van de gegevensoverdracht, omdat die multimodaal is in een organisme).Wozmro schreef op zaterdag 5 juli 2025 @ 20:37:
De CEO's van de vele vele AI bedrijfjes hebben in ieder geval hun job goed gedaan voor wat betreft de marketing van hun product.
LLMs zijn neurale netwerken en mensen maken ook veelvuldig gebruik van neurale netwerken in het dagelijks leven. Denk aan taken zoals lezen, autorijden,... het is een energiebesparende shortcut. Je kan heel goed zijn in lezen maar je hebt niet zelf bedacht hoe je moet lezen en hoe dat effectief werkt in je hoofd. Laat staan dat je dat bij iedere letter die je leest opnieuw zou moeten bedenken.
Een LLM(neuraal netwerk) is een stuk gereedschap en de kunst is om dat gereedschap zo efficiënt mogelijk te gebruiken. Net zoals een hamer veel efficiënter gebruikt wordt in de handen van een timmerman dan in die van een boekhouder.
Overigens is je "ik" niet als iets aparts in je hersenen aanwezig, er is geen "geest" als aparte entiteit, ergo de "toolbox" is niet iets dat te onderscheiden is van de gebruiker ervan.
Veel insecten(mieren) weten met weinig individuele neuronen toch complexere problemen op te lossen. Met elkaar georganiseerd iets voor elkaar te krijgen. Soms zelfs bruggen te bouwen of andere structuren om te overleven.BadRespawn schreef op zaterdag 5 juli 2025 @ 22:48:
[...]
We hebben prima riemen om LLMs te beschrijven: als ze geen intelligentie, redeneringsvermogen en feitenkennis hebben, kan je simpelweg niet zeggen dat ze dat wel hebben.
Ik denk dat LLM plotten op feitenkennis/een menselijke IQ test volgend menselijke ontwikkeling patronen meten misschien geen goede maatstaf meer is.
Zelfs mensen meten is soms moeilijker dan we denken omdat als ik jou ga bevragen over Amerikaanse geschiedenis jij relatief laag zal scoren op een test gegeven aan Amerikaanse tieners.
Misschien zit er wel een dimensie in bij intelegentie die gaat over gemiddelde meningen terug geven. Mensen zijn ook goed in sociaal wenselijke kunnen reageren wat niet heel anders is dan de juiste norm herkennen op een situatie en het norm gedrag/antwoord geven.
Er bestaat daar een woord voor: antropomorfisme. (Ik wist dat daar een woord voor bestond maar niet meer welk, ik heb het opgezocht en van Google een AI uitleg gekregen)
De neiging om menselijke eigenschappen aan iets toe te kennen, vooral gekend bij huisdieren maar wat mij betreft gelijkaardig bij llm's.
De neiging om menselijke eigenschappen aan iets toe te kennen, vooral gekend bij huisdieren maar wat mij betreft gelijkaardig bij llm's.
Collectief hebben mieren wel veel neuronen. Al die 'slimme' dingen die ze doen, doen ze als collectief, niet individueel.Batavia schreef op vrijdag 11 juli 2025 @ 11:55:
[...]
Veel insecten(mieren) weten met weinig individuele neuronen toch complexere problemen op te lossen. Met elkaar georganiseerd iets voor elkaar te krijgen. Soms zelfs bruggen te bouwen of andere structuren om te overleven.
Hoe dan ook wordt er zelden gezegd dat mieren intelligent zijn, laat staan dat die intelligentie ook maar enigszins in de buurt komt van menselijke intelligentie.
Het streven is juist om AI te maken die vergelijkbaar is met mensen, maar zelfs volgens de meest optimistische verhalen is dat iets waar aan wordt gewerkt, niet iets wat er nu al is.Ik denk dat LLM plotten op feitenkennis/een menselijke IQ test volgend menselijke ontwikkeling patronen meten misschien geen goede maatstaf meer is.
Dit heeft alleen niets met intelligentie te maken, en alles met feitenkennis.Batavia schreef op vrijdag 11 juli 2025 @ 11:55:
[...]
Zelfs mensen meten is soms moeilijker dan we denken omdat als ik jou ga bevragen over Amerikaanse geschiedenis jij relatief laag zal scoren op een test gegeven aan Amerikaanse tieners.
Klopt.autje schreef op vrijdag 18 juli 2025 @ 12:55:
[...]
Dit heeft alleen niets met intelligentie te maken, en alles met feitenkennis.
En laat ons systeem hoe we menselijke intelligentie meten nu direct en indirect vol zitten met dit soort dingen.
Het is zelfs aangetoond dat bij bepaalde testen (zeg cito op de basisschool dat jou niveau indeling voor een groot deel voor de middelbare school) je zelfs bij wiskunde/logica vragen de vragen zo kan verwoorden dat bepaalde groepen het beter doen dan anderen.
Als jij moet rekenen met vissen en jou vader is visser doe je het beter dan als ik het heb over een paarden parcours terwijl je niks met paarden hebt. Zelfs al is de onderliggende som het zelfde.
Een tweede uitdaging dit zitten in IQ testen is dat het gaat om menselijk vergelijking. Als ik de reeks 2 4 6 8 ... Kan aanvullen in onder de 3! seconde wordt ik vergeleken met mensen die dan ook kunnen en een bepaalde leeftijd en IQ hebben. Maar een LLM kan misschien deze test goed doen zonder het ook praktisch te kunnen toepassen. Een IQ test gaat er van uit dat jou resultaten op dit soort testen een voorspelbaar model is voor jou algehele intelligentie en functioneren. Maar we komen er achter dat het model bij mensen goed generaliseert maar bij LLMs misschien niet.
Ging het er niet om dat een taalmodel dat allemaal sowieso niet heeft?
Hoe is dat dan relevant?
Hoe is dat dan relevant?
Dat zit wel Schnorr.