Bij een maatschappelijke discussie gaat het niet over u en mij maar over wat we zouden adviseren aan de volgende generatie.
Voor de meeste mensen hier zal de inhoud geen nieuws zijn, maar het is belangrijk dat de "ouderwetse" media ook de mensen bereiken die anders zomaar alle verkooppraatjes zouden geloven.
Ook de nieuwe, "redenerende" modellen presteren dus slechter dan een kind van 8 op eenvoudige denkpuzzeltjes. Waar dan nog eens gekozen is voor denkpuzzeltjes met een sterk taalkundig karakter; de thuiswedstrijd voor de taalmodellen.Kinderen zijn beter in staat denkpuzzels op te lossen dan populaire chatbots als ChatGPT of Claude, blijkt uit nieuw onderzoek van de Universiteit van Amsterdam en het Santa Fe Institute. Althans: als het gaat om redeneren met nieuwe informatie.
[...]
Het Latijnse alfabet is ruimschoots vertegenwoordigd in de trainingsdata van de taalmodellen, inclusief voorbeelden van dit soort analogieën.
[...]
Het contrast in de resultaten is als gevolg hiervan groot. Waar de chatbots prima presteren op bekend terrein (het Latijnse alfabet), daar laten ze het elders afweten. Vooral bij het symbolenalfabet stort de AI-prestatie in.
Het grootste gevaar van AI is niet dat superintelligentie de wereld gaat domineren, maar dat allerlei beslissers blind vertrouwen op de adviezen van een systeem dat niet kan redeneren.
Niet door een probleem duizend tot miljoenen keren te itereren, maar door een 'gutfeeling' dat de ene oplossing beter is dan de andere. Dat is waar de slimmeriken nu aan werken volgens Ilja Sutskever.
Wel grappig dat het menselijke brein blijkbaar aan een soort van quantum computing doet, in plaats van alle mogelijke opties serieel te toetsen.
Aan de ene kant zal dat de voortgang van AGI nog wel even tegenhouden. Aan de andere kant is de wetenschap waar het huidige probleem van verdere opschaling van intelligentie ligt, de kans dat er AGI komt vergroot.
Mensen leren op verschillende manieren, door observatie, ervaring, sociale interactie, taal, en intuïtie. Het vergelijken van menselijke leren en ML/AI is problematisch: menselijke leren is deels contextueel, adaptief en zelfs emotioneel gestuurd. Mensen leren ook via herhaling en ervaring. Een kind leert bijvoorbeeld ook door iets vaak te proberen, vaak zonder expliciete supervisie, en juist door fouten te maken. Het idee dat menselijke leren geen iteraties bevat is incorrect, want iteratie is niet het probleem, maar de schaal en inefficiëntie van huidige algoritmenFornoo schreef op donderdag 18 december 2025 @ 10:06:
Het is wachten tot een slimme hendrik iets bedenkt waarmee computers kunnen leren zoals mensen leren.
Niet door een probleem duizend tot miljoenen keren te itereren, maar door een 'gutfeeling' dat de ene oplossing beter is dan de andere. Dat is waar de slimmeriken nu aan werken volgens Ilja Sutskever.
Het is waarom populisme werkt.
Dus dat klinkt helaas toch ook weer als een stukje marketing van mensen die geld nodig hebben, hoewel het op zich positief kan zijn als dat uitloopt op mogelijkheden om minder te bruteforcen.
Dat zit wel Schnorr.
Het is altijd kristallen bol werk. De realiteit is dat toenemende negatieve berichtgeving vaak een afname aan vertrouwen doet opwekken. Als dit dan gestaafd gaan met negatieve of tegenvallende cijfers op de aandelenmarkt dan klapt een bel vaak.Yaksa schreef op maandag 8 december 2025 @ 23:36:
Ik heb AI zelf (ChatGPT) even gevraagd wanneer de bubbel gaat barsten, hier het antwoord:
Geen vaste datum. Bubbels eindigen wanneer kapitaal geen verliezen meer tolereert, adoptie afvlakt en de inkomsten achterblijven bij de infrastructuurkosten. Huidige signalen: hoge burn-rates, zwakke eenheidseconomie, afhankelijkheid van voortdurende financieringsrondes, verzadiging in het aanbod van foundation-modellen en regulatoire vertraging. De ineenstorting komt wanneer de investeerdersconsensus verschuift van groeiverhaal naar kasstroomeis.
Ik denk dat ie er niet veel naast zit qua analyse. Je hoort steeds meer signalen dat AI minder oplevert dan dat de grote AI bedrijven ons willen laten geloven. Wanneer AI echt zo goed zou zijn, waar blijven al die geweldige programma's, appjes en tools dan? En is er binnen een half jaar ook al een bug-vrije versie van Windows te verwachten, je zou toch denken dat AI al die fouten er binnen een maand uit heeft?
Ik zet zelf mijn kristallen bol kaartje in op de kwartaalcijfers van de VS betreffende Q4 2025. Deze worden bekend gemaakt eind Januari / Februari 2026. Ik verwacht dat rond die tijd net ervoor of net erna de bel begint te barsten en dat het dan vrij snel gaat. (Ervoor zou wijzen op mensen die al meer weten en snel hun schaapjes op het droge proberen te krijgen).
het gaat sowieso niet goed met de VS en Trumps gestuntel maakt het erger. Er zijn genoeg signalen dat ook wat betreft AI het niet goed gaat. Algemeen vertrouwen neemt af dus ik verwacht dat veel aandeelhouders heel ahrd aan het hopen zijn op positieve AI cijfers die ze niet gaan krijgen.
The Informaticus Chaoticus is an endangered species who makes it's lair in the electric wires and dodgy electrical appliances and feasts primarily on old legacy systems.
Hoeveel van wat mensen zo dagelijks doen is echt denkwerk en hoeveel is eigenlijk een vorm van herhaling, al dan niet in een andere combinatie, van een bestaand kunstje? Dat is de cruciale vraag bij de toepassing van AI. En in mijn beleving is 90% of meer van wat we dagelijks doen een kunstje wat al eens door onszelf of anderen in een of andere vorm en vaak succesvol is uitgevoerd.
AI gaat niet of nauwelijks over creativiteit, over nadenken, over nieuwe dingen bedenken. AI gaat helemaal niet over intelligentie, AI gaat over patroonherkenning, over kunnen herhalen wat al eens door iemand ergens is uitgevoerd. En daarin is AI nu vaak al beter, in de toekomst onvermijdelijk veel beter dan mensen. Juist in gebieden waar veel data voorhanden is.
Alles wat herhaalbaar is, alles wat te maken heeft met het herkennen van patronen, alles wat te maken heeft met het oplossen van een probleem wat ergens ter wereld al is opgelost door anderen gaat (deels) overgenomen worden door AI. Ingewikkelder is het niet. Niet omdat AI dat veel beter kan, maar omdat AI dat goedkoper kan. Grote delen van IT-werk zullen daaronder vallen.
Voor sommigen van ons, degenen die daadwerkelijk vooral bezig zijn met echt creatief denkwerk is AI daarmee een grote hulp, voor velen van ons is AI wel degelijk een ontwikkeling die tot nadenken aan moet zetten over de eigen employability op langere termijn. Of dat een zegen of een vloek is gaat meer liggen aan hoe we onze maatschappij hierop weten aan te passen, dan aan AI zelf.
Het probleem is dat AI juist in die usecase faalt. Precies de usecase waar het meeste vertrouwt wordt op AI. Omdat juist bij die herhaalbare acties AI hallucineert. Die herhaalbare acties hebben niet veel mensen nodig en als je AI inzet heb je nog steeds die mensen nodig maar dan om de fouten die AI maakt eruit te halen.delpit schreef op donderdag 18 december 2025 @ 11:32:
Wanneer ik dit topic zo doorlees dan heb ik het idee dat veel mensen onderschatten waarom AI wel degelijk een grote verandering gaat betekenen in het werkbare leven de komende decennia.
Hoeveel van wat mensen zo dagelijks doen is echt denkwerk en hoeveel is eigenlijk een vorm van herhaling, al dan niet in een andere combinatie, van een bestaand kunstje? Dat is de cruciale vraag bij de toepassing van AI. En in mijn beleving is 90% of meer van wat we dagelijks doen een kunstje wat al eens door onszelf of anderen in een of andere vorm en vaak succesvol is uitgevoerd.
AI gaat niet of nauwelijks over creativiteit, over nadenken, over nieuwe dingen bedenken. AI gaat helemaal niet over intelligentie, AI gaat over patroonherkenning, over kunnen herhalen wat al eens door iemand ergens is uitgevoerd. En daarin is AI nu vaak al beter, in de toekomst onvermijdelijk veel beter dan mensen. Juist in gebieden waar veel data voorhanden is.
Alles wat herhaalbaar is, alles wat te maken heeft met het herkennen van patronen, alles wat te maken heeft met het oplossen van een probleem wat ergens ter wereld al is opgelost door anderen gaat (deels) overgenomen worden door AI. Ingewikkelder is het niet. Niet omdat AI dat veel beter kan, maar omdat AI dat goedkoper kan. Grote delen van IT-werk zullen daaronder vallen.
Voor sommigen van ons, degenen die daadwerkelijk vooral bezig zijn met echt creatief denkwerk is AI daarmee een grote hulp, voor velen van ons is AI wel degelijk een ontwikkeling die tot nadenken aan moet zetten over de eigen employability op langere termijn. Of dat een zegen of een vloek is gaat meer liggen aan hoe we onze maatschappij hierop weten aan te passen, dan aan AI zelf.
Het huidige AI is daarin waardeloos. Er zal een nieuw model moeten komen wat er simpelweg nog niet is.
The Informaticus Chaoticus is an endangered species who makes it's lair in the electric wires and dodgy electrical appliances and feasts primarily on old legacy systems.
- sociaal (ontslagen)
- sociologisch (mensen worden dommer)
- milieu-technisch (datacenters vervuilen en verbruiken enorm veel)
- ethisch (resultaten zijn gebaseerd op auteursrechtelijk beschermde data)
Vooralsnog vind ik de (beloofde) voordelen niet genoeg om deze nadelen te accepteren. Ook omdat veelal de voordelen financieel zijn, maar niet ten goede komen aan de samenleving (maar goed, dat is mijn socialistische inslag
Als ik zo rondkijk in de fabriek waar ik werk, kan niks door de huidige LLM "AI" gedaan worden. Misschien wat ondersteuning bij finance.delpit schreef op donderdag 18 december 2025 @ 11:32:
Wanneer ik dit topic zo doorlees dan heb ik het idee dat veel mensen onderschatten waarom AI wel degelijk een grote verandering gaat betekenen in het werkbare leven de komende decennia.
Hoeveel van wat mensen zo dagelijks doen is echt denkwerk en hoeveel is eigenlijk een vorm van herhaling, al dan niet in een andere combinatie, van een bestaand kunstje? Dat is de cruciale vraag bij de toepassing van AI. En in mijn beleving is 90% of meer van wat we dagelijks doen een kunstje wat al eens door onszelf of anderen in een of andere vorm en vaak succesvol is uitgevoerd.
AI gaat niet of nauwelijks over creativiteit, over nadenken, over nieuwe dingen bedenken. AI gaat helemaal niet over intelligentie, AI gaat over patroonherkenning, over kunnen herhalen wat al eens door iemand ergens is uitgevoerd. En daarin is AI nu vaak al beter, in de toekomst onvermijdelijk veel beter dan mensen. Juist in gebieden waar veel data voorhanden is.
Alles wat herhaalbaar is, alles wat te maken heeft met het herkennen van patronen, alles wat te maken heeft met het oplossen van een probleem wat ergens ter wereld al is opgelost door anderen gaat (deels) overgenomen worden door AI. Ingewikkelder is het niet. Niet omdat AI dat veel beter kan, maar omdat AI dat goedkoper kan. Grote delen van IT-werk zullen daaronder vallen.
Voor sommigen van ons, degenen die daadwerkelijk vooral bezig zijn met echt creatief denkwerk is AI daarmee een grote hulp, voor velen van ons is AI wel degelijk een ontwikkeling die tot nadenken aan moet zetten over de eigen employability op langere termijn. Of dat een zegen of een vloek is gaat meer liggen aan hoe we onze maatschappij hierop weten aan te passen, dan aan AI zelf.
Een LLM kan geen machines bedienen
Een LLM kan niet schoonmaken (we hebben een autonome dwijlrobot rondrijden maar die komt lang niet overal of vlak langs)
Een LLM zou misschien planningen voor productie en personeel kunnen maken, maar de integratie met SAP en de realistische boekhouding, ik hou mijn hart vast
Een LLM kan geen onderhoudsplannen maken
Een LLM kan niks bestellen. Ik kan er niet tegen zeggen "vraag een offerte op bij leverancier X en bestel een doosje schroefjes", al helemaal wanneer de LLM aan de andere kant de inkoop-opdracht en offerte moet gaan beoordelen en omzetten naar een echte PO. Ik heb dat mailtje naar de leverancier zelf snel genoeg getypt en kan zelf wel beoordelen of dat de offerte voor een doosje schroefjes van het juiste formaat is...
Een LLM kan nog niet engineeren, teken een onderdeel dat "hier" in past en dit doet
Een LLM kan geen projecten managen. Ik heb voornamelijk korte meetings, face-to-face, op de vloer, naast de machines.
Vergis je niet hoeveel fabrieken (groot en klein) er zijn in Nederland.
BThGvNeOA
Bond Tegen het Gebruik van Nutteloze en Onbekende Afkortingen!
Gewoon uitschrijven wat je bedoelt is zo moeilijk niet... PR (persoonlijk record?), ICE/M/A (verbrandingsmotor?), kdv (kinderdagverblijf), DA (dierenarts?)etc...,
Net zoals een rekenmachine, een rolmeter,... Ook met deze dingen kan je enorme blunders maken als je niet oppast of niet weet wat je aan het doen bent.
Ik had bijvoorbeeld onlangs audit op mijn werk en dan heb ik gevraagd aan chatgpt om zich als strenge auditeur voor te doen en mij moeilijke vragen te stellen. Sommige van de vragen waren uitstekend, andere 'raar' of niet correct maar dat kan je ook beschouwen als een deel van het leerproces: de fouten van AI herkennen.
[ Voor 38% gewijzigd door Wozmro op 18-12-2025 12:37 ]
Bij een maatschappelijke discussie gaat het niet over u en mij maar over wat we zouden adviseren aan de volgende generatie.
De korte termijn impact is altijd overspannen en te optimistisch. De lange termijn wordt altijd onderschat. Die tendens is ook nu volop aanwezig. Het gaat er niet over de impact van AI morgen, het gaat erover de impact van AI over 5-10 jaar.
Machines bedienen, schoonmaken, plannen, inkopen, onderhoud, bestellen, managen? Geen enkel probleem. De combinatie robotica met AI staat nog in de kinderschoenen, over 5 jaar niet meer.
Ontwikkelingen zoals deze gaan altijd eerst een piek (hype) door waarin de beloftes de werkelijkheid onder laten sneeuwen. Daarna daalt iedereen terug op aarde, en gaat men vanaf dat moment kijken wat we er echt mee kunnen, waarna de lijn weer omhoog gaat.delpit schreef op donderdag 18 december 2025 @ 12:37:
Er is een wetmatigheid rondom dit soort ontwikkelingen die je ook hier ziet.
De korte termijn impact is altijd overspannen en te optimistisch. De lange termijn wordt altijd onderschat. Die tendens is ook nu volop aanwezig. Het gaat er niet over de impact van AI morgen, het gaat erover de impact van AI over 5-10 jaar.
Machines bedienen, schoonmaken, plannen, inkopen, onderhoud, bestellen, managen? Geen enkel probleem. De combinatie robotica met AI staat nog in de kinderschoenen, over 5 jaar niet meer.
Het probleem is nu alleen dat er zo enorm veel geld in zit, dat die val ook enorm wordt. Die klap gaat iedereen voelen.
Ik denk dat veel mensen die wel delen. Effectief wordt dit een beetje gezien als de Dotcom bubbel. Daarmee bedoel ik te zeggen dat AI weldegelijk de wereld gaat veranderen, op den duur na planmatige verbeteringen. Maar momenteel wordt er vooral buitensporig veel geld de markt in gegoten zonder dat er constructieve plannen met daaraan geboden resultaten zijn.delpit schreef op donderdag 18 december 2025 @ 12:37:
Er is een wetmatigheid rondom dit soort ontwikkelingen die je ook hier ziet.
De korte termijn impact is altijd overspannen en te optimistisch. De lange termijn wordt altijd onderschat. Die tendens is ook nu volop aanwezig. Het gaat er niet over de impact van AI morgen, het gaat erover de impact van AI over 5-10 jaar.
Machines bedienen, schoonmaken, plannen, inkopen, onderhoud, bestellen, managen? Geen enkel probleem. De combinatie robotica met AI staat nog in de kinderschoenen, over 5 jaar niet meer.
Dat OpenAi aangeeft dat ze pas op zijn vroegst na 2030 winstgevend zijn zegt eigenlijk al genoeg over hoe zij de toekomst zien. De komende vijf jaar moeten wij niet veel verwachten van AI. Het zal op een laag pitje werken net zoals internet tussen 1998 en 2003 op een laag pitje werkt. Daarna is mijn verwachting dat we geleidelijk aan meer en meer impact van AI zien op bijvoorbeeld de werkvloer.
Ik denk dat het beter was geweest als investering geleidelijke was geweest. Er zit nu veel en veel te veel geld in de AI markt wat na uitgeven nooit op tijd zal resulteren in rendabele terug betaling. Ik denk dat 1/4 of zelfs minder van de huidige investeringen voor de komende vijf jaar verstandiger was. Nu moet dat geld wat er teveel in zit middels verlies uit vloeien.
The Informaticus Chaoticus is an endangered species who makes it's lair in the electric wires and dodgy electrical appliances and feasts primarily on old legacy systems.
Er is natuurlijk meer dan LLM alleenDropjesLover schreef op donderdag 18 december 2025 @ 12:31:
[...]
Als ik zo rondkijk in de fabriek waar ik werk, kan niks door de huidige LLM "AI" gedaan worden. Misschien wat ondersteuning bij finance.
Een LLM kan geen machines bedienen
Een LLM kan niet schoonmaken (we hebben een autonome dwijlrobot rondrijden maar die komt lang niet overal of vlak langs)
Een LLM zou misschien planningen voor productie en personeel kunnen maken, maar de integratie met SAP en de realistische boekhouding, ik hou mijn hart vast
Een LLM kan geen onderhoudsplannen maken
Een LLM kan niks bestellen. Ik kan er niet tegen zeggen "vraag een offerte op bij leverancier X en bestel een doosje schroefjes", al helemaal wanneer de LLM aan de andere kant de inkoop-opdracht en offerte moet gaan beoordelen en omzetten naar een echte PO. Ik heb dat mailtje naar de leverancier zelf snel genoeg getypt en kan zelf wel beoordelen of dat de offerte voor een doosje schroefjes van het juiste formaat is...
Een LLM kan nog niet engineeren, teken een onderdeel dat "hier" in past en dit doet
Een LLM kan geen projecten managen. Ik heb voornamelijk korte meetings, face-to-face, op de vloer, naast de machines.
Vergis je niet hoeveel fabrieken (groot en klein) er zijn in Nederland.
200 jaar geleden had men dezelfde post met 'mechanische automatisatie' ipv AI en pakweg 50 jaar geleden opnieuw met software automatisatie ipv AI.delpit schreef op donderdag 18 december 2025 @ 11:32:
Wanneer ik dit topic zo doorlees dan heb ik het idee dat veel mensen onderschatten waarom AI wel degelijk een grote verandering gaat betekenen in het werkbare leven de komende decennia.
Hoeveel van wat mensen zo dagelijks doen is echt denkwerk en hoeveel is eigenlijk een vorm van herhaling, al dan niet in een andere combinatie, van een bestaand kunstje? Dat is de cruciale vraag bij de toepassing van AI. En in mijn beleving is 90% of meer van wat we dagelijks doen een kunstje wat al eens door onszelf of anderen in een of andere vorm en vaak succesvol is uitgevoerd.
AI gaat niet of nauwelijks over creativiteit, over nadenken, over nieuwe dingen bedenken. AI gaat helemaal niet over intelligentie, AI gaat over patroonherkenning, over kunnen herhalen wat al eens door iemand ergens is uitgevoerd. En daarin is AI nu vaak al beter, in de toekomst onvermijdelijk veel beter dan mensen. Juist in gebieden waar veel data voorhanden is.
Alles wat herhaalbaar is, alles wat te maken heeft met het herkennen van patronen, alles wat te maken heeft met het oplossen van een probleem wat ergens ter wereld al is opgelost door anderen gaat (deels) overgenomen worden door AI. Ingewikkelder is het niet. Niet omdat AI dat veel beter kan, maar omdat AI dat goedkoper kan. Grote delen van IT-werk zullen daaronder vallen.
Voor sommigen van ons, degenen die daadwerkelijk vooral bezig zijn met echt creatief denkwerk is AI daarmee een grote hulp, voor velen van ons is AI wel degelijk een ontwikkeling die tot nadenken aan moet zetten over de eigen employability op langere termijn. Of dat een zegen of een vloek is gaat meer liggen aan hoe we onze maatschappij hierop weten aan te passen, dan aan AI zelf.
En 20 jaar geleden opnieuw met outsourcing.
Wat ik schrijf is gebaseerd op ervaring met wat de mogelijkheden zijn van de achterliggende tech.Fornoo schreef op donderdag 18 december 2025 @ 11:26:
Het is toch een beetje de bias hier op dit forum no offence, dat onze gutfeeling iets van afkeer opwekt.
Daar zitten voorkeuren tussen, maar die probeer ik te filteren door terug te vallen op zaken die door anderen bevestigd kunnen worden. Heb ik het fout, dan kun je dit aangeven met harde feiten.
Als het aan mij lag was alles al AGI, maar daar zitten we technisch gezien gewoon niet in de buurt. Dat kun je afschuiven op bias, maar dan vraag ik me af of je überhaupt tevreden kan worden gesteld met enige uitleg.
Dat zit wel Schnorr.
Twee losse zaken: de tech en de uitwerking op een samenleving.delpit schreef op donderdag 18 december 2025 @ 11:32:
Wanneer ik dit topic zo doorlees dan heb ik het idee dat veel mensen onderschatten waarom AI wel degelijk een grote verandering gaat betekenen in het werkbare leven de komende decennia.
Dat het eerste een grote verandering gaat veroorzaken is duidelijk, maar net zoals men vroeger dacht dat Skynet de wereld zou gaan overnemen is dat nu ook niet het geval omdat de technologie het niet ondersteunt.
Hoe we met misbruik daarvan om moeten gaan is te bespreken, maar het zou wel fijn zijn als dat gedaan kan worden zonder de fantasie over dat eerste de vrije loop te laten omdat je dan niet tot bruikbare resultaten komt.
In dit topic lijkt dat nog door elkaar te lopen.
Daar ben ik het wel helemaal met je eensHoeveel van wat mensen zo dagelijks doen is echt denkwerk en hoeveel is eigenlijk een vorm van herhaling, al dan niet in een andere combinatie, van een bestaand kunstje? Dat is de cruciale vraag bij de toepassing van AI. En in mijn beleving is 90% of meer van wat we dagelijks doen een kunstje wat al eens door onszelf of anderen in een of andere vorm en vaak succesvol is uitgevoerd.
Dat zit wel Schnorr.
Er was een tijd dat de opkomst van letters en cijfers even of zelfs meer revolutionair was dan AI.
Ocharme diegene die dan net goed hun geheugen getraind hadden om van generatie op generatie verhalen mondeling door te vertellen.
En soms was het hulpmiddel er eerst en dan pas volgden de vele toepassingen.
Denk bijvoorbeeld aan de laser. Die werd eerst uitgevonden in het labo maar niemand wist echt wat er mee concreet aan te vangen. Zo'n parallelle lichtstraal was alleen maar 'cool'.
Neem vandaag de laser weg uit de samenleving en die boel valt in minder dan een dag uit elkaar. Van telecommunicatie, over medische operaties, tot metaal snijden. De laser heeft heel veel toepassingen waar de meeste mensen zelfs geen moment bij stilstaan of weten dat het bestaat.
Bij een maatschappelijke discussie gaat het niet over u en mij maar over wat we zouden adviseren aan de volgende generatie.
Ik weiger de huidige AI een AI te noemen. Het zijn LLM / ML's die, ondanks wat beweerd of getoond wordt, _niet_ kunnen beredeneren.
Ze zijn net zo intelligent als dat Tesla's Autopilot / Full Self Driving al 4 jaar niet echt zelf kan of zelf mag sturen. Al helemaal niet Full. Een erg goed werkende adaptive cruise control, meer niet.
Je moet door de marketing praat heen prikken en benoemen wat het werkelijk is.
BThGvNeOA
Bond Tegen het Gebruik van Nutteloze en Onbekende Afkortingen!
Gewoon uitschrijven wat je bedoelt is zo moeilijk niet... PR (persoonlijk record?), ICE/M/A (verbrandingsmotor?), kdv (kinderdagverblijf), DA (dierenarts?)etc...,
En bedenk je dan dat voor zo'n LLM alle output kwalitatief hetzelfde is: die 'fouten' zijn niet het gevolg van verkeerd begrijpen of verkeerd redeneren, het is net als de 'nuttige' output het gevolg van taal-statistiek. Het is verleidelijk om te denken dat LLMs wel kunnen redeneren omdat ze ook 'nuttige' output leveren, maar dat is puur projectie onzer zijde.Wozmro schreef op donderdag 18 december 2025 @ 12:36:
Ik had bijvoorbeeld onlangs audit op mijn werk en dan heb ik gevraagd aan chatgpt om zich als strenge auditeur voor te doen en mij moeilijke vragen te stellen. Sommige van de vragen waren uitstekend, andere 'raar' of niet correct maar dat kan je ook beschouwen als een deel van het leerproces: de fouten van AI herkennen.
Alleen al het feit dat wij de fouten moeten herkennen, zegt genoeg. En dat belooft weinig goeds voor een toekomst met mensen die hebben verleerd om zelf te redeneren omdat ze zich wel laten leiden door LLM output.
Daarnaast is de enige manier om een LLM nieuwe tekst te laten genereren: het bijwerken van de dataset. Met gegevens die door mensen zijn gemaakt of bedacht. Dus wederom nutteloos om zoiets als "AI" te bestempelen.
"In America, consumption equals jobs. In these days, banks aren't lending us the money we need to buy the things we don't need to create the jobs we need to pay back the loans we can't afford." - Stephen Colbert
Maar eerder om het oefenen van 'geaudit' worden. Bij mij is deze audit 1x per jaar en het is toch altijd weer een beetje stress.
Ik weet natuurlijk ook wel dat zo'n AI 'rollenspel' niet hetzelfde is als de real deal. Maar alle kleine beetjes helpen.
Ik gebruik dat AI-dingske gewoon waarvoor het dient: taal in al zijn vormen.
[ Voor 10% gewijzigd door Wozmro op 18-12-2025 17:11 ]
Bij een maatschappelijke discussie gaat het niet over u en mij maar over wat we zouden adviseren aan de volgende generatie.
Nouja, zelfstandig van baan wisselen om een vrachtwagen in te halen of voor te sorteren voor een afslag is al erg veel gevraagd.HvdBent schreef op donderdag 18 december 2025 @ 14:53:
Zelfrijdende auto's werken alleen op een snelweg waar iedereen dezelfde kant op rijd, als je met een zelfrijdende auto door Amsterdam rijdt met alle fietsers en voetgangers, dan zoekt de auto de eerste parkeerplaats op parkeert en weigert verder te rijden.
En deed hij zichzelf maar in een drukke omgeving zichzelf op een veilige plek parkeren, dat toont nog enige intelligentie aan (je eigen grenzen herkennen/erkennen). Ik vrees dat zelfrjdende auto domweg midden op een kruispunt op tilt slaat en weigert nog iets te doen.
BThGvNeOA
Bond Tegen het Gebruik van Nutteloze en Onbekende Afkortingen!
Gewoon uitschrijven wat je bedoelt is zo moeilijk niet... PR (persoonlijk record?), ICE/M/A (verbrandingsmotor?), kdv (kinderdagverblijf), DA (dierenarts?)etc...,
Ik bedoel dat er hier op dit forum altijd neerbuigend op intuïtie/gutfeeling wordt neergekeken en redeneren eigenlijk de enige manier is om de wereld te interpreteren. De mens is verre van rationeel.Stukfruit schreef op donderdag 18 december 2025 @ 13:17:
[...]
Wat ik schrijf is gebaseerd op ervaring met wat de mogelijkheden zijn van de achterliggende tech.
Daar zitten voorkeuren tussen, maar die probeer ik te filteren door terug te vallen op zaken die door anderen bevestigd kunnen worden. Heb ik het fout, dan kun je dit aangeven met harde feiten.
Als het aan mij lag was alles al AGI, maar daar zitten we technisch gezien gewoon niet in de buurt. Dat kun je afschuiven op bias, maar dan vraag ik me af of je überhaupt tevreden kan worden gesteld met enige uitleg.
Het is mijns inziens precies datgene wat waarschijnlijk echte AGI en ASI gaat opleveren, iets wat waarschijnlijk hetzelfde principe kent als onze intuïtie.
Onze intuïtie is iets dat zo goed als instantaan werkt. In werkelijkheid kost het enkele milliseconden. Voordat we iets doen zoals voor de eerste keer autorijden, hebben we al een gevoel hoe we het ongeveer moeten doen. En na enkele uren kunnen we al rondjes rijden zonder ooit dezelfde domme fouten te maken als de huidige AI. Het is die aangeboren manier van kunnen leren die we eerst moeten begrijpen, voordat AGI gaat komen.
Zodra we dat begrijpen, is ASI om de hoek en is de mens in een oogopslag achterhaald.
Ik vind het grappig dat de slimme wetenschappers die hun hele leven redeneren bovenaan alles plaatsen, straks moeten leren hoe intuitie werkt.
Leg eens uit waarom dit gekoppeld dient te worden aan "AI" die geen AI is en voorlopig niet wordt omdat ieder inzicht om tot zoiets te komen vooralsnog ontbreekt? Dat je het wil (en daar kan ik me helemaal in vinden) betekent niet dat het zo plotseling magisch ook zo is.Fornoo schreef op donderdag 18 december 2025 @ 16:44:
[...]
Ik bedoel dat er hier op dit forum altijd neerbuigend op intuïtie/gutfeeling wordt neergekeken en redeneren eigenlijk de enige manier is om de wereld te interpreteren. De mens is verre van rationeel.
Maar dit is al niet waar te maken, aangezien het al minstens 50 - 250 ms zou duren (ik kan zo snel even geen betere bron vinden maar voor zover ik weet zat het er niet ver naast) om überhaupt een reactie (afhankelijk van locatie) in je lichaam te krijgen omdat het geheel stevig afhankelijk is van physics.Onze intuïtie is iets dat zo goed als instantaan werkt. In werkelijkheid kost het enkele milliseconden.
Het menselijk lichaam is daarmee niet instantaan en zulke zaken kosten niet enkele milliseconden als alleen het signaal om bv. van een been naar je hersenen voor bv. beweging te komen al langer duurt.
Maar daarvoor heb je al gefietst en andere dingen gedaan om het benodigde gevoel voor het rijden in of op andere apparaten voor elkaar te krijgen en daar heb je heel veel keren voor moeten vallen en oefenen. Het bijbehorende richtingsgevoel en andere zaken zijn een heel onderwerp op zich en ik kan me niet voorstellen dat dit bij jou "gratis" is gekomen zonder vele uren, dagen, maanden en jaren te "verspillen"?Voordat we iets doen zoals voor de eerste keer autorijden, hebben we al een gevoel hoe we het ongeveer moeten doen.
De aangeboren manier van leren die wij hebben heet ook wel "fouten maken".En na enkele uren kunnen we al rondjes rijden zonder ooit dezelfde domme fouten te maken als de huidige AI. Het is die aangeboren manier van kunnen leren die we eerst moeten begrijpen, voordat AGI gaat komen.
Dat zit wel Schnorr.
Tegelijkertijd heeft een huidig AI duizenden iteraties en honderdduizenden voorbeelden nodig, terwijl een kind na een jaartje kan lopen, voornamelijk omdat de skills ook in een langzaam tempo vrijgegeven worden (hoe beweeg ik mijn armen en benen, zitten, balans, spierkracht opbouwen, etc), tezamen met nog talloze andere oefeningen (eten, smaak, geluid, geur, ziekte, wat gebeurt er in mijn buikje, etc etc).Stukfruit schreef op donderdag 18 december 2025 @ 21:13:
[...]
Leg eens uit waarom dit gekoppeld dient te worden aan "AI" die geen AI is en voorlopig niet wordt omdat ieder inzicht om tot zoiets te komen vooralsnog ontbreekt? Dat je het wil (en daar kan ik me helemaal in vinden) betekent niet dat het zo plotseling magisch ook zo is.
[...]
Maar dit is al niet waar te maken, aangezien het al minstens 50 - 250 ms zou duren (ik kan zo snel even geen betere bron vinden maar voor zover ik weet zat het er niet ver naast) om überhaupt een reactie (afhankelijk van locatie) in je lichaam te krijgen omdat het geheel stevig afhankelijk is van physics.
Het menselijk lichaam is daarmee niet instantaan en zulke zaken kosten niet enkele milliseconden als alleen het signaal om bv. van een been naar je hersenen voor bv. beweging te komen al langer duurt.
[...]
Maar daarvoor heb je al gefietst en andere dingen gedaan om het benodigde gevoel voor het rijden in of op andere apparaten voor elkaar te krijgen en daar heb je heel veel keren voor moeten vallen en oefenen. Het bijbehorende richtingsgevoel en andere zaken zijn een heel onderwerp op zich en ik kan me niet voorstellen dat dit bij jou "gratis" is gekomen zonder vele uren, dagen, maanden en jaren te "verspillen"?
[...]
De aangeboren manier van leren die wij hebben heet ook wel "fouten maken".
Misschien moet een echte AI ook beter echt langzaam getraind worden, met begeleiding, ipv de LLM manier "feed all the data".
BThGvNeOA
Bond Tegen het Gebruik van Nutteloze en Onbekende Afkortingen!
Gewoon uitschrijven wat je bedoelt is zo moeilijk niet... PR (persoonlijk record?), ICE/M/A (verbrandingsmotor?), kdv (kinderdagverblijf), DA (dierenarts?)etc...,
Het verschil tussen de mens en de huidige LLM's is de schaal van de complexiteit. Ons lichaam is opgebouwd uit biljoenen cellen, die ieder zijn opgebouwd uit kleinere onderdelen, die zijn opgebouwd uit kleinere onderdelen. Al die cellen en onderdeeltjes werken parallel aan elkaar, inclusief ons brein.Stukfruit schreef op donderdag 18 december 2025 @ 21:13:
[...]
Leg eens uit waarom dit gekoppeld dient te worden aan "AI" die geen AI is en voorlopig niet wordt omdat ieder inzicht om tot zoiets te komen vooralsnog ontbreekt? Dat je het wil (en daar kan ik me helemaal in vinden) betekent niet dat het zo plotseling magisch ook zo is.
[...]
Maar dit is al niet waar te maken, aangezien het al minstens 50 - 250 ms zou duren (ik kan zo snel even geen betere bron vinden maar voor zover ik weet zat het er niet ver naast) om überhaupt een reactie (afhankelijk van locatie) in je lichaam te krijgen omdat het geheel stevig afhankelijk is van physics.
Het menselijk lichaam is daarmee niet instantaan en zulke zaken kosten niet enkele milliseconden als alleen het signaal om bv. van een been naar je hersenen voor bv. beweging te komen al langer duurt.
[...]
Maar daarvoor heb je al gefietst en andere dingen gedaan om het benodigde gevoel voor het rijden in of op andere apparaten voor elkaar te krijgen en daar heb je heel veel keren voor moeten vallen en oefenen. Het bijbehorende richtingsgevoel en andere zaken zijn een heel onderwerp op zich en ik kan me niet voorstellen dat dit bij jou "gratis" is gekomen zonder vele uren, dagen, maanden en jaren te "verspillen"?
[...]
De aangeboren manier van leren die wij hebben heet ook wel "fouten maken".
Dat geheel is zo complex en vooral extreem parallel wat volgens mij verklaart waarom een baby miljoenen malen efficienter kan leren dan een huidige LLM ooit zal kunnen. Dus ja beide maken fouten, maar de een is vele malen efficienter in de wijze van leren.
Incluis de iteraties die niet succesvol zijn of zelfs van buitenaf niet zichtbaar?
Van het eerste hersencelletje dat 'iets' doet tot succesvol het stuk speelgoed oppakken?
Bij een maatschappelijke discussie gaat het niet over u en mij maar over wat we zouden adviseren aan de volgende generatie.
Mensen doen het sowieso anders want we maken in de regel niet twee keer dezelfde fout.
Dat huidige AI nog maar weinig te vergelijken is met hoe onze hersenen werken en tot dingen in staat zijn daar ga ik wel mee akkoord.
We zouden eigenlijk voor AI andere woorden moeten vinden/gebruiken dan: nadenken, begrijpen, redeneren,...
Het gaat meer in de richting van: transformeren, filteren, combineren,....
Bij een maatschappelijke discussie gaat het niet over u en mij maar over wat we zouden adviseren aan de volgende generatie.
De reden dat die woorden zijn gekozen is natuurlijk om mensen de laten denken dat ze met een intelligentie/persoon praten. 'Hallucineren' en 'trainen' zijn ook daarom gekozen. Net zoals de output zaken als 'ik denk', 'dat is mijn fout', 'ik heb het verkeerd' e.d. bevatten. Allemaal om je te laten denken dat het een persoon is waar je een band mee kunt opbouwen.Wozmro schreef op vrijdag 19 december 2025 @ 10:14:
Dan kunnen we niet vaststellen dat hersenen efficiënter zijn in leren.
Dat huidige AI nog maar weinig te vergelijken is met hoe onze hersenen werken en tot dingen in staat zijn daar ga ik wel mee akkoord.
We zouden eigenlijk voor AI andere woorden moeten vinden/gebruiken dan: nadenken, begrijpen, redeneren,...
Het gaat meer in de richting van: transformeren, filteren, combineren,....
En het behandelen als een persoon zorgt dan voor meer "prompts" -> meer "engagement" -> meer hype -> meer investeerders -> meer geld.
"In America, consumption equals jobs. In these days, banks aren't lending us the money we need to buy the things we don't need to create the jobs we need to pay back the loans we can't afford." - Stephen Colbert
Ook bij mensen is de taal een masker dat ons onderbewustzijn aanstuurt. Met dezelfde bedoeling: om te socialiseren. Hoe beter iemand dat kan, hoe hoger op de sociale ladder degene kan komen. Een psychopaat kan ook heel sociaal overkomen.
Honderd processen die parallel op 100 ms lopen zijn bovendien nog steeds 100 ms op een happy path.
Dat zit wel Schnorr.
In dit geval ambtenaren van de gemeente Eindhoven die dit deden. Men is hier alleen achtergekomen omdat zij al onder verscherpt toezicht stonden, maar ik durf mijn hand ervoor in het vuur te steken dat dit echt massaal wordt gedaan met persoonsgegevens en bedrijfsgevoelige informatie.
https://www.omroepbrabant...-met-openbare-ai-websites
Het zweverige lol. Ik zeg alleen dat de mens op een andere manier leert dan een LLM. Whatever onze intuitie is, is wat ontbreekt in de huidige LLM's.Stukfruit schreef op vrijdag 19 december 2025 @ 13:25:
Je legt alleen nog steeds niet uit hoe het zweverige te maken heeft met huidige technische mogelijkheden.
Honderd processen die parallel op 100 ms lopen zijn bovendien nog steeds 100 ms op een happy path.
Daarom mogen we alleen Gemini gebruiken @ kantoor, dat is betaald en Google zegt niks te doen met de gegevens... zegtTheBrut3 schreef op vrijdag 19 december 2025 @ 13:29:
Ook wel grappig dat mensen gelijk niet meer weten wat de regels zijn wanneer ze een tool kunnen gebruiken. Gewoon massaal gegevens door ChatGPT halen *zucht*
In dit geval ambtenaren van de gemeente Eindhoven die dit deden. Men is hier alleen achtergekomen omdat zij al onder verscherpt toezicht stonden, maar ik durf mijn hand ervoor in het vuur te steken dat dit echt massaal wordt gedaan met persoonsgegevens en bedrijfsgevoelige informatie.
https://www.omroepbrabant...-met-openbare-ai-websites
maar blijft idd oppassen met dat soort zaken, je gooit nogal makkelijk persoonlijke gegevens in die tools.
Maar zie je dat je jezelf als een autoriteit gedraagt op twee gebieden met argumentatie die je voor beiden niet onderbouwt met concrete info?Fornoo schreef op vrijdag 19 december 2025 @ 13:32:
[...]
Het zweverige lol. Ik zeg alleen dat de mens op een andere manier leert dan een LLM. Whatever onze intuitie is, is wat ontbreekt in de huidige LLM's.
[ Voor 7% gewijzigd door Stukfruit op 19-12-2025 18:46 ]
Dat zit wel Schnorr.
Als je ondertussen wat met agents hebt gespeeld die gebaseerd zijn op een LLM, (e.g. Claude Code) weet je ondertussen dat een LLM als pattern matcher fouten maakt, maar door handelingen (zoeken op internet, code compileren, unit tests runnen), zijn eigen fouten corrigeert. Ook het onderverdelen in stappen door de juiste prompting zodat je taak niet uit de context window loopt en je rotzooi krijgt is een strategie om betere resultaten te krijgen.BadRespawn schreef op donderdag 18 december 2025 @ 15:13:
[...]
En bedenk je dan dat voor zo'n LLM alle output kwalitatief hetzelfde is: die 'fouten' zijn niet het gevolg van verkeerd begrijpen of verkeerd redeneren, het is net als de 'nuttige' output het gevolg van taal-statistiek. Het is verleidelijk om te denken dat LLMs wel kunnen redeneren omdat ze ook 'nuttige' output leveren, maar dat is puur projectie onzer zijde.
Alleen al het feit dat wij de fouten moeten herkennen, zegt genoeg. En dat belooft weinig goeds voor een toekomst met mensen die hebben verleerd om zelf te redeneren omdat ze zich wel laten leiden door LLM output.
Bij de integratie van LLM's in onze producten zijn wij ook in rap tempo bezig om de LLM handvatten te geven om zijn eigen fouten te corrigeren, en een plan te maken, voordat gehandeld wordt en dan zie je de accuratesse met grote sprongen toenemen. En dan is het wellicht zo dat ie niet kan "rederneren", maar je hebt hem wel een oplossingsstrategie gegeven, die niet eens zo veel verschilt van de gemiddelde junior die zo'n zelfde taak uitvoert en daarbij fouten maakt. En de pattern matcher is een heel stuk beter en de kennis een heel stuk groter dan bij een junior.
Dus ik ben er ondertussen wel van overtuigd dat werk dat digitaal is en gebaseerd is op een kunstje, op termijn overgenomen wordt door AI. De vraag is hoe snel we AGI gaan bereiken en daar ben ik dan weer een heel stuk sceptischer over. Je ziet dat, behalve de doorbraak op de Transformer, de afgelopen tien jaar fundamenteel het toch best lastig is om AGI te bereiken. De hersenen zijn door miljoenen jaren evolutie qua structuren fijngeslepen voor heel veel uiteenlopende taken, en een LLM in GPT vorm gaat dat niet zomaar allemaal net zo goed kunnen.
En daarnaast zal de samenleving altijd een ratrace blijven, dus voor al die hoeveelheid mensen wordt op termijn andere soorten werk gevonden / ontwikkeld gebaseerd op vaardigheden die de AI (nog) niet heeft.. De productiviteit stijgt wellicht en hele bedrijven zullen omvallen. Op individueel niveau c.q. voor wellicht een jaargang of generatie gaan er natuurlijk wel slachtoffers vallen.
Ik keek laatst naar een interview met Ilya Sutskever.Stukfruit schreef op vrijdag 19 december 2025 @ 18:45:
[...]
Maar zie je dat je jezelf als een autoriteit gedraagt op twee gebieden met argumentatie die je voor beiden niet onderbouwt met concrete info?
YouTube: Ilya Sutskever – We're moving from the age of scaling to the age of ...
Waarin hij toelicht dat het opschalen van de huidige technieken ons niet verder brengt, maar dat er nieuw onderzoek moet worden gedaan hoe machines slimmer kunnen leren.
Niet door ze eindeloze trainingssessies te laten doen, en dan 'poef' zijn ze gereed. Maar door hun leer-algoritme net zo slim te maken als de mens. Dan kun je ze net als de mens op de werkvloer 'los' laten en leren ze op dezelfde manier als de mens. Hij kon er uiteraard/helaas niet verder over uitweiden, omdat dat juist het IP van SSI is. Maakte mij wel duidelijk dat ze precies daar mee bezig zijn: hoe maken we een leer-algoritme dat dat van de mens (en andere dieren met bewustzijn) benaderd.
YouTube: Richard Sutton – Father of RL thinks LLMs are a dead end
Vermoedelijk is dat een vd redenen dat de evolutie het fenomeen reflex heeft laten ontstaan. Het is evolutionair voordelig om je hand semi-autonoom direct aan het vuur te kunnen onttrekken, nog voordat de hersenen dat signaal hebben gekregen. Dat signaal volgt even later alsnog zodat we kunnen we leren van de gebeurtenis.Stukfruit schreef op donderdag 18 december 2025 @ 21:13:
Maar dit is al niet waar te maken, aangezien het al minstens 50 - 250 ms zou duren (ik kan zo snel even geen betere bron vinden maar voor zover ik weet zat het er niet ver naast) om überhaupt een reactie (afhankelijk van locatie) in je lichaam te krijgen omdat het geheel stevig afhankelijk is van physics.
Het menselijk lichaam is daarmee niet instantaan en zulke zaken kosten niet enkele milliseconden als alleen het signaal om bv. van een been naar je hersenen voor bv. beweging te komen al langer duurt.
| | | · | | · | | · | | · | | | : | | |·| |·| |·| |·|
Profiting From Exploitation: How We Found the Man Behind Two Deepfake Porn Sites (let op: 1 halfnaakte foto)
Dit plaatje vat het bewijsmateriaal aardig samen:
"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.
Niet alleen baby's maar net zo goed volwassenen. De bekende 10000 uur oefening voordat we ergens goed in zijn zegt een hoop. En zelfs relatief simpele handelingen vereisen flink wat iteraties. Pak een volwassenen die nog een muur heeft geverfd en ga kijken na hoeveel muren die persoon eindelijke perfect schilderwerk aflevert. Als het de eerste keer goed gaat is het mazzel en toeval. Net als dat een LLM op sommige vragen direct het juist antwoord kan geven.Wozmro schreef op donderdag 18 december 2025 @ 22:50:
Ja maar, weten we wel hoeveel iteraties een gemiddelde baby doet om een bepaalde vaardigheid te leren, bijvoorbeeld een stuk speelgoed vastpakken?
Incluis de iteraties die niet succesvol zijn of zelfs van buitenaf niet zichtbaar?
Van het eerste hersencelletje dat 'iets' doet tot succesvol het stuk speelgoed oppakken?
Het grote (resterende?) verschil tussen mens en AI is dat de mens er zich redelijk van bewust is dat iets nieuw leren maar goed lukt door veel te oefenen en te herhalen.
En de mens kan ook op zichzelf de keuze maken om iets nieuw te gaan leren. Als ik de keuze maak om chinees te willen leren spreken dan kan ik daar nu onmiddellijk aan beginnen (mij er tegelijk bewust van zijn dat dit veel moeite zal kosten).
De mogelijkheid om patronen te herkennen/te leren door herhaling is een van de vele tools binnen de hersenen waarvan je als mens zelf kan beslissen die te gebruiken en waarvoor (tot op zekere hoogte en in functie van de omstandigheden).
Die tool (AI LLM) is nu geëxternaliseerd naar buiten ons lichaam. Net zoals vele andere tools (geheugen, horen, zien,...) die in het verleden al geëxternaliseerd zijn.
Bij een maatschappelijke discussie gaat het niet over u en mij maar over wat we zouden adviseren aan de volgende generatie.
Aldus een paar vrienden die een mooi rabbit hole van peer reviewed papers op het spoor is. Vind het wel mooi, en vind het ook wel passend voor de situatie: een paradigm shift naar een heliocentrisch wereldbeeld maakte al veel los, maar op het moment dat AI structureel slimmer is op veel gebieden dan de gemiddelde mens, hebben we als volkje wel een rampscenario in handen.
LLMs kunnen ook niet logisch redeneren, hebben geen ruimtelijk inzicht, geen wereldmodel, etc. Het is ook niet mogelijk om ze de regels van een relatief eenvoudig spelletje als schaken te leren, bijvoorbeeld. Ik denk dat er nog heel wat stappen te maken zijn, zelfs zonder menselijke intuïtie te mythologiseren.Fornoo schreef op vrijdag 19 december 2025 @ 13:32:
Het zweverige lol. Ik zeg alleen dat de mens op een andere manier leert dan een LLM. Whatever onze intuitie is, is wat ontbreekt in de huidige LLM's.
Elke keer als er structureel naar de redeneringsvermogens van LLMs wordt gekeken komt daar hetzelfde uit; ze kunnen wel iets, maar een kind van acht doet het al beter. Alleen omdat ze hun (beperkte) redeneringsvermogen kunnen combineren met een bijna encyclopedische "kennis" van teksten en talen lukt het ze om intelligent over te komen.
[ Voor 20% gewijzigd door CVTTPD2DQ op 21-12-2025 19:52 ]
Tegelijk is er een overlap. De mens doet ook heel veel aan patroonherkenning. Bijvoorbeeld bij autorijden doe je voor het grootste deel aan patroonherkenning: input vanuit de ogen, oren wordt grotendeels onbewust omgezet naar beweging van de voeten en handen.
Wat er in de hersenen juist gebeurd en waarom, daar zijn we ons niet bewust van.
Je kan niet al bewust redenerend autorijden, dan denk je veel te langzaam en het is ook niet vol te houden want heel vermoeiend.
Bij een maatschappelijke discussie gaat het niet over u en mij maar over wat we zouden adviseren aan de volgende generatie.
[ Voor 92% gewijzigd door polthemol op 22-12-2025 08:35 ]
Niet alleen persoonsgegevens, maar hoeveel niet-nadenkenden laten documenten met (gevoelige) bedrijfsinformatie door de ChatGPTs, Gemini's en Co-Pilots van deze wereld samenvatten of analyseren? Dat lijkt mij niet zo handig.KeRsTmAnNeKe schreef op vrijdag 19 december 2025 @ 18:22:
[...]
Daarom mogen we alleen Gemini gebruiken @ kantoor, dat is betaald en Google zegt niks te doen met de gegevens... zegt
maar blijft idd oppassen met dat soort zaken, je gooit nogal makkelijk persoonlijke gegevens in die tools.
Iemand die bij vol verstand uitspraken zoals "it may be that today's large neural networks are slightly conscious" doet staat bij mij helaas vooral in de categorie met mensen die aan marketing doen. Juist wanneer ze pretenderen te weten hoe het technisch in elkaar steekt.Fornoo schreef op vrijdag 19 december 2025 @ 22:33:
[...]
Ik keek laatst naar een interview met Ilya Sutskever.
YouTube: Ilya Sutskever – We're moving from the age of scaling to the age of ...
Waarin hij toelicht dat het opschalen van de huidige technieken ons niet verder brengt, maar dat er nieuw onderzoek moet worden gedaan hoe machines slimmer kunnen leren.
Niet door ze eindeloze trainingssessies te laten doen, en dan 'poef' zijn ze gereed. Maar door hun leer-algoritme net zo slim te maken als de mens. Dan kun je ze net als de mens op de werkvloer 'los' laten en leren ze op dezelfde manier als de mens. Hij kon er uiteraard/helaas niet verder over uitweiden, omdat dat juist het IP van SSI is. Maakte mij wel duidelijk dat ze precies daar mee bezig zijn: hoe maken we een leer-algoritme dat dat van de mens (en andere dieren met bewustzijn) benaderd.
Daarnaast is niet echt duidelijk hoeveel hij exact heeft bijgedragen omdat hij co-auteur is (zie bv. Wikipedia) op bepaalde projecten. Dat zou wat concreter kunnen.
Hetzelfde geldt voor het niet kunnen praten over IP. Heb je enig idee hoeveel bullshit er binnen die wereld rondgaat? Ik heb daar ook aan moeten meewerken en weet het helaas te goed: veel. Dus dat is voor mij geen argument. Erger: het is een stevige rode vlag.
Met dat bij elkaar komt hij op mij over als iemand die naar een manier zoekt om zaken op een begrijpbare manier over te brengen zonder mensen op een idee te brengen over een concrete (technische) implementatie. En zo eindigen we weer bij de mogelijkheden: er lijkt momenteel niets concreets binnen dit domein te bestaan dat hetzelfde werkt of gaat werken als een levend wezen. Tenzij dat wordt achtergehouden, maar dat lijkt me niet logisch omdat het dan geen inkomsten oplevert en/of binnen het wapperdomein valt. Zelfs de tech van een partij zoals Palantir is al even redelijk bekend, dus tja...
Waar hij wél een goed punt heeft is dat zaken niet dmv bruteforce gedaan moeten worden, maar dat is een wijsheid die al vele keren eerder is toegepast in een inmiddels ontelbare hoeveelheid domeinen. Dus ook geen concrete informatie waar je iets mee kan of uit kan aannemen dat er sprake is van "slightly conscious".
Dat zit wel Schnorr.
Heeft evolutie dat gedaan, was het een bewust signaal, of was het een gevolg omdat wezens zonder dat voordeel sneller stierven en zich minder vaak zullen hebben voortgeplant?mekkieboek schreef op zaterdag 20 december 2025 @ 11:47:
[...]
Vermoedelijk is dat een vd redenen dat de evolutie het fenomeen reflex heeft laten ontstaan. Het is evolutionair voordelig om je hand semi-autonoom direct aan het vuur te kunnen onttrekken, nog voordat de hersenen dat signaal hebben gekregen. Dat signaal volgt even later alsnog zodat we kunnen we leren van de gebeurtenis.
[ Voor 5% gewijzigd door Stukfruit op 22-12-2025 09:50 ]
Dat zit wel Schnorr.
Met 'signaal' bedoelde ik het 'Auw Heet!' signaal. Dus ja, het bestaan van reflex maakt aannemelijk dat het even duurt voor een waarneming in de hersenen is aangekomen, alwaar het vermoedelijk ook even duurt voor het is geanalyseerd en omgezet in een of ander gevolg. Bijvoorbeeld een herinnering dat je bij een gerelateerde waarneming, b.v. de geur van rook, moet oppassen waar je je handen laat.Stukfruit schreef op maandag 22 december 2025 @ 09:49:
[...]
Heeft evolutie dat gedaan, was het een bewust signaal, of was het een gevolg omdat wezens zonder dat voordeel sneller stierven en zich minder vaak zullen hebben voortgeplant?
Neurowetenschapper prof. Cyriel Pennartz gaf een interessante presentatie voor Studium Generale UU over bewustzijn.
Bewustzijn lijkt eerder een een combinatie van méérdere processen. B.v. bij hersenbeschadiging waardoor specifieke onderdelen zijn verdwenen, kun je onderzoeken wat het gevolg is voor het bewustzijn van de patient. Enfin, hij legt het veel beter uit:
YouTube: Is ons bewustzijn een hallucinatie?
| | | · | | · | | · | | · | | | : | | |·| |·| |·| |·|
Zelfs dat wordt nog niet gedaan in de software die we nu bestempelen als "AI". Er zijn vergelijkingen te maken, maar huidige "AI" doet weinig meer dan context gebruiken (alsof je iemand keer op keer voor iedere regel tekst die je uitspreekt moet vertellen wat deze context is) of het doet aan extractie van belangrijke onderdelen om te "onthouden".It is widely accepted that the synapse plays a key role in the formation of memory.[45] The stability of long-term memory can persist for many years; nevertheless, synapses, the neurological basis of memory, are very dynamic.[46] The formation of synaptic connections significantly depends on activity-dependent synaptic plasticity observed in various synaptic pathways. Indeed, the connection between memory formation and alterations in synaptic efficacy enables the reinforcement of neuronal interactions between neurons. As neurotransmitters activate receptors across the synaptic cleft, the connection between the two neurons is strengthened when both neurons are active at the same time, as a result of the receptor's signaling mechanisms. Memory formation involves complex interactions between neural pathways, including the strengthening and weakening of synaptic connections, which contribute to the storage of information.[47] This process of synaptic strengthening is known as long-term potentiation (LTP).[45]
Beiden is handmatig programmeerwerk ipv een automatisch mechanisme.
Zaken zoals neurotransmitters kunnen in principe nagedaan worden door ze te hardcoden met bv. functies of laagjes. Handwerk en/of statisch. Geen automatisch gevolg van een proces.
Dat zit wel Schnorr.
Inzichten van een SF-schrijver over AI.
Over de mens als reverse centauer: een stuk vlees als verlengstuk van de machine.
In tegenstelling tot de machine als verlengstuk van de mens zoals we tot vandaag altijd al gewoon zijn geweest. Toch?
Bij een maatschappelijke discussie gaat het niet over u en mij maar over wat we zouden adviseren aan de volgende generatie.
Mooie woordsalade. Hij zou fictie moeten schrijven.Wozmro schreef op donderdag 22 januari 2026 @ 22:05:
https://www.theguardian.c...ble-burst-reverse-centaur
Inzichten van een SF-schrijver over AI.
Over de mens als reverse centauer: een stuk vlees als verlengstuk van de machine.
In tegenstelling tot de machine als verlengstuk van de mens zoals we tot vandaag altijd al gewoon zijn geweest. Toch?
Woordsalade is jouw interpretatie van de tekst.
[ Voor 42% gewijzigd door Wozmro op 23-01-2026 13:12 ]
Bij een maatschappelijke discussie gaat het niet over u en mij maar over wat we zouden adviseren aan de volgende generatie.
De enige reden waarom men nu zoveel geld in AI stopt is FOMO. Er is niets rationeels aan.
Dat is (voor mij) net de essentie van het artikel: zelf met alternatieven komen en die ook verdedigen en beargumenteren. Niet enkel passief reactionair zijn.
Bij een maatschappelijke discussie gaat het niet over u en mij maar over wat we zouden adviseren aan de volgende generatie.
1. Mens werkt, is rechtspersoon. Betaald belasting over X werk.
2. AI werkt, is geen rechtspersoon. Er word geen belasting betaald over X werk.
Wanneer er uiteindelijk een groot omslag punt is, waarin we straks misschien dark factories veel meer krijgen. En steeds minder mensen nodig zullen hebben.
Hoe gaan we dan uiteindelijk de schatkist vullen, als veel werk onbelast of met lage belasting zal worden uitgevoerd. Terwijl menselijk werk een hoge belasting kent?
Dan heb je nog omzetbelasting voor het bedrijf, winstbelasting voor de eigenaar, dividendbelasting voor de aandeelhouders en ga zo nog maar even door.
Qua belasting zit het wel goed, maar de vraag is meer, hoe krijgen de mensen hun inkomen als dit scenario echt gaat plaatsvinden.
[citaat]
Maar je moet nog steeds heel goed speccen en testen.
Ik zit in data engineering en daar is het perfect. Korte simpele scripts, duidelijk begin en einde. Relatief dan hè .
Voor een nieuw bron systeem op basis van documentatie en specs een python connector geschreven zonder 1 letter code aan te raken. Ik moet het alleen nog wel testen, dus ik kan nog niet melden of het succesvol was. Ik verwacht nog wel bugs, maar als ik het zelf had moeten schrijven had ik ook bugs, veel meer bugs en dagen en dagen aan prutsen gehad. Ik ben dan ook geen goede programmeur en ons takenpakket is veel te breed.
Edit; nu even op een laptop. Ik wil een AI auto correct. Of een auto correct op iOS die WEL werkt. Wat ik nu zie is dat de AI productiviteit werkt als een stagiar side-kick een encyclopedie aan kennis en kan voorspellen wat standaard patronen zijn. Soms fantastisch, soms heel dom.
Je moet ook de use cases zien. Simpel en recent voorbeeld: SQL script, 400 regels, 10 tabellen en er moeten wat velden aangepast worden, inclusief in de joins. Met een agent 1 minuut werk, geen fouten. Handmatig? 15 minuten met fouten.
Maar de echte business transformatie met AI? Ik zie het nog maar heel langzaam gebeuren en als er al iets gebeurd is AI daar een heel klein onderdeel van en wordt het meeste -if not everything- op een klassieke methode opgelost.
Maar goed, begin 2025 was ik sceptisch en kon ik er niks mee, begin 2026 ben ik nog steeds sceptisch maar kan ik AI inzetten. Dus 2027???
Ik denk nu binnen ons team dat we op +0% productiviteit zitten omdat we soms sneller/handiger zijn, maar ook tijd verliezen in het uitzoeken waar AI kan werken. Ik denk wel serieus dat we naar een +20% productiviteit gaan en dat is inclusief alle uren dat we niet echt aan het ontwikkelen zijn. Dus onder de streep een +40% productiever *
* je mag mij hier begin 2027 weer naar vragen.
Als ik nu op conferenties zie zoals de Power BI gebruikers dagen in Utrecht hoeveel AI er besproken wordt, dat de markt echt nog een enorme schok te verwerken krijgt. Er wordt namelijk bijna niks besproken. Er zijn wat voorlopers, mensen die echt hard aan het experimenteren zijn (dat is het ook heh!), maar de grote massa is er echt nog niet mee begonnen.
Dus kortom:
Wat zien jullie daadwerkelijk gebeuren rondom business transformatie?
Pas naar een conferentie geweest waar iemand van een soort service desk besprak dat er letterlijk miljoenen bespaard werden. Dat wil ik nog wel geloven, maar het is wel de typische bedrijfsonderdelen die eerst gaan; veel tekst, veel kosten, al veel automatisering. Dus wat zien jullie binnen jullie bedrijven gebeuren?
Hoe zien jullie de markt ontwikkelen?
De marketing blabla van de AI bedrijven zelf moet je met 10 ton zout nemen, maar er zal wel wat waar van zijn. Dus wat zien jullie daadwerkelijk gebeuren?
☻/
/▌
/ \ Analyseert | Modelleert | Valideert | Solliciteert | Generaliseert | Procrastineert | Epibreert |
Er gebeurt niks.Motrax schreef op zaterdag 24 januari 2026 @ 10:39:
Reactie in een heel ander onderwerp, maar beter hier op zijn plaats om discussie te voeren.
Hoe zien jullie de markt ontwikkelen?
De marketing blabla van de AI bedrijven zelf moet je met 10 ton zout nemen, maar er zal wel wat waar van zijn. Dus wat zien jullie daadwerkelijk gebeuren?
AI kan niet, zoals een mens, out of the box denken.
AI is niet creatief, leuk, speels, ongedwongen, irrationeel, vernieuwend.
AI ziet niet de mogelijke gevolgen van een (verkeerde) beslissing.
AI is nog maar een kleuter, die nog jaren moet groeien alvorens enigszins verstandig te worden.
De enige manier waarop AI ooit iets zou kunnen worden is al 'ns verfilmd: "We are the Borg, lower your Shields, You will be Assimilated, Resistance is Futile".
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Excuus dat ik het vraag, maar er gaan teveel meningen rond en ik kan niet beoordelen in hoeverre deze meningen ook gestoeld zijn in een stuk ervaring. Vind je dit, of heb je dit daadwerkelijk ook ervaren en zie je dat in je eigen organisatie?Yaksa schreef op zaterdag 24 januari 2026 @ 10:51:
[...]
Er gebeurt niks.
AI kan niet, zoals een mens, out of the box denken.
AI is niet creatief, leuk, speels, ongedwongen, irrationeel, vernieuwend.
AI ziet niet de mogelijke gevolgen van een (verkeerde) beslissing.
AI is nog maar een kleuter, die nog jaren moet groeien alvorens enigszins verstandig te worden.
De enige manier waarop AI ooit iets zou kunnen worden is al 'ns verfilmd: "We are the Borg, lower your Shields, You will be Assimilated, Resistance is Futile".
Goed punt, dank voor het inzicht. Zeker in een verschuivende nuance door de tijd heen, dat is moeilijk te interpreteren. Beetje gerelateerd, wat ik ervaar is dat door ook de grote context dat contractuele analyse van honderden pagina's met vergelijkingen naar voorgaande versies ook nog steeds moeizaam is. Ik heb er nog geen succesvolle implementaties van gezien, terwijl diverse leveranciers wel van alles hebben beloofd, maar niet waar hebben kunnen maken. Mensen maken er fouten bij, maar LLM's zeker te weten ook...Poecillia schreef op zaterdag 24 januari 2026 @ 10:58:
Ik zie AI-modellen steeds meer veranderen in een commodity; de onderlinge verschillen nemen af en de basistechniek wordt breed toegankelijk. De echte crux zit echter in de context. Vanuit mijn ervaring met de toepassing van AI bij complexe juridische dossiers merk ik dat juist die diepe context de grootste barrière vormt voor volledige automatisering. In dergelijke dossiers is informatie vaak inconsistent en menselijke interpretaties of prioriteiten verschuiven over de tijd. Omdat AI moeite heeft met deze veranderlijke en vaak onlogische menselijke nuance, blijft de human-in-the-loop geen tijdelijke oplossing maar een fundamentele vereiste. Het model levert de rekenkracht, maar de mens is onmisbaar om de grillige context te interpreteren en bij te sturen.
☻/
/▌
/ \ Analyseert | Modelleert | Valideert | Solliciteert | Generaliseert | Procrastineert | Epibreert |
Ik heb pas een (Engelse) podcast beluisterd over AI in de juridische sector. Dat ging over dat AI steeds vaker wordt ingezet voor het "simpele" starterswerk, dus eigenlijk het juridische handwerk om het vak echt te leren als je bent afgestudeerd. Dan heb je de ervaren juristen (50+) die relaties onderhouden, die op basis van hun ervaring zaken goed kunnen overzien. Maar de kern van het verhaal was dat die ervaren mensen de ervaring hebben opgedaan door als junior dossiers hebben moeten doorzoeken en kijken wat bruikbaar was. Als je die mensen niet meer opleidt heb je over 20 jaar ook niet de seniors die nu het de grote cases doen.Poecillia schreef op zaterdag 24 januari 2026 @ 10:58:
Ik zie AI-modellen steeds meer veranderen in een commodity; de onderlinge verschillen nemen af en de basistechniek wordt breed toegankelijk. De echte crux zit echter in de context. Vanuit mijn ervaring met de toepassing van AI bij complexe juridische dossiers merk ik dat juist die diepe context de grootste barrière vormt voor volledige automatisering. In dergelijke dossiers is informatie vaak inconsistent en menselijke interpretaties of prioriteiten verschuiven over de tijd. Omdat AI moeite heeft met deze veranderlijke en vaak onlogische menselijke nuance, blijft de human-in-the-loop geen tijdelijke oplossing maar een fundamentele vereiste. Het model levert de rekenkracht, maar de mens is onmisbaar om de grillige context te interpreteren en bij te sturen.
Ik denk dat dat vergelijkbaar is met wat hij zegt over complexe dossiers. AI kan prima zaken aanpakken die bij wijze van spreken lopende band werk zijn. Maar voor die complexe once in a lifetime zaken moet je mensen hebben omdat AI de input niet heeft.
Het probleem bij professionele inzet is dat je voor iedere vraag steeds weer alle context moet toevoegen. Dat is erg inefficiënt en heeft beperkingen. Fine Tuning is een complex pad en levert vaak meer stijl dan feitenkennis op. Ik volg met interesse de ontwikkeling van Google. Google zet met onderzoek naar architecturen zoals Titans en het MIRAS-framework een stap richting modellen die leren tijdens gebruik. Waar traditionele LLM's statische snapshots zijn van hun trainingsdata, maakt test-time training het mogelijk dat een model zijn eigen parameters bijwerkt terwijl het informatie verwerkt.[...]
Goed punt, dank voor het inzicht. Zeker in een verschuivende nuance door de tijd heen, dat is moeilijk te interpreteren. Beetje gerelateerd, wat ik ervaar is dat door ook de grote context dat contractuele analyse van honderden pagina's met vergelijkingen naar voorgaande versies ook nog steeds moeizaam is. Ik heb er nog geen succesvolle implementaties van gezien, terwijl diverse leveranciers wel van alles hebben beloofd, maar niet waar hebben kunnen maken. Mensen maken er fouten bij, maar LLM's zeker te weten ook...
Met de huidige modellen zie ik AI vooral als hulpmiddel om te structureren door feiten uit informatie te halen te mappen op context en op basis hiervan een standpunt op te bouwen. Daarbij continu verwijzen naar de bronnen zodat het eenvoudig gecontroleerd kan worden. Dit scheelt behandelaars al heel veel tijd.
Ik heb het hierbij trouwens over standaard juridisch werk met min of meer identieke civiele cases. Niet over procedures met een gerechtelijke uitspraak.
[ Voor 5% gewijzigd door Poecillia op 24-01-2026 12:38 ]
Je beantwoordt de vraag vanuit het oogpunt "zijn er dan nog wel belastinginkomsten?" en niet "worden menselijke werknemers niet door het belastingsysteem benadeeld?". Verder mag je er rekening mee houden dat de energie-, omzet-, winst- en dividendbelasting voornamelijk in Amerika gaat worden geïnd.Diederik schreef op zaterdag 24 januari 2026 @ 10:36:
Het product dat AI maakt, daar wordt natuurlijk wel belasting over geheven, en verder is het net als met een andere productie machines, alles wat nodig is om de machines aan de praat te houden zoals energie, en de server waar AI op draait moet ook geproduceerd worden en is daardoor belast.
Dan heb je nog omzetbelasting voor het bedrijf, winstbelasting voor de eigenaar, dividendbelasting voor de aandeelhouders en ga zo nog maar even door.
Bestaande bedrijven veranderen is moeilijk; nieuwe bedrijven opzetten die niet aan oude patronen vastzitten een stuk makkelijker. Als er echt een AI-revolutie komt (en dat acht ik niet bewezen), dan ga je vooral zien dat nieuwe bedrijven oude bedrijven inhalen. Net zoals je vanaf de jaren '90 op allerlei gebieden nieuwe internetbedrijfjes zag.Motrax schreef op zaterdag 24 januari 2026 @ 10:39:
Maar de echte business transformatie met AI? Ik zie het nog maar heel langzaam gebeuren en als er al iets gebeurd is AI daar een heel klein onderdeel van en wordt het meeste -if not everything- op een klassieke methode opgelost.
In mijn ervaring zie ik juist het omgekeerde. Fantaseren kan een AI prima, logisch nadenken lukt nog niet zo goed. Onderzoek naar de cognitieve capaciteiten van AI laat hetzelfde zien.Yaksa schreef op zaterdag 24 januari 2026 @ 10:51:
AI kan niet, zoals een mens, out of the box denken.
AI is niet creatief, leuk, speels, ongedwongen, irrationeel, vernieuwend.
AI ziet niet de mogelijke gevolgen van een (verkeerde) beslissing.
Maar denk eens na over mensen die je kent met die eigenschappen. Irrationeel, vernieuwend, out of the box denkend? Doen die het zo goed in een bedrijfssetting, of doen die iets voor zichzelf in een studio of hippiegemeenschap?
De samenleving verwacht van de meeste mensen logische, voorspelbare,rationele arbeid.
Dit is een artikel in Nature, van een aartslui iemand met een ongelooflijke plaat voor zijn aangezicht. Hij wordt massaal beschimpt op social media, en terecht. Doet alles met ChatGPT, en dat voor iemand wiens baan het is zelfstandig na te denken en studenten te leren dat te doen, maar om het nog een tandje erger te maken, had geen enkele backupstrategie. Backup, backup, backup, heb ik al backup gezegd?After turning off ChatGPT’s ‘data consent’ option, Marcel Bucher lost the work behind grant applications, teaching materials and publication drafts. Here’s what happened next.
Ik moest aan dit filmpje uit Blackadder the Third denken, met "Backup!" ipv "MacBeth".Ik probeer mijn vele niet erg computersavvy collega's waakzaam te laten blijven. Helpt niet als de Vice-Chancellor (de CEO) van mijn Britse universiteit dezelfde dag een universiteits-breed bericht rondstuurt waar hij aangeeft zoveel productiever te zijn nu ChatGPT emails voor hem schrijft...
I had a decent lunch, and I'm feeling quite amiable. That's why you're still alive.
Fantaseren, of liever hallucineren, kan AI inderdaad prima, dat doet het aan de lopende band.CVTTPD2DQ schreef op zaterdag 24 januari 2026 @ 14:24:In mijn ervaring zie ik juist het omgekeerde. Fantaseren kan een AI prima, logisch nadenken lukt nog niet zo goed. Onderzoek naar de cognitieve capaciteiten van AI laat hetzelfde zien.
Maar denk eens na over mensen die je kent met die eigenschappen. Irrationeel, vernieuwend, out of the box denkend? Doen die het zo goed in een bedrijfssetting, of doen die iets voor zichzelf in een studio of hippiegemeenschap?
De samenleving verwacht van de meeste mensen logische, voorspelbare,rationele arbeid.
Maar er zijn genoeg beroepen waar de door mij genoemde eigenschappen prima werken.
Of je wil je graag terug naar 1935; 'Modern Times'. ?
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
Ach, ik heb nu een paar keer de cyclus meegemaakt; in mijn tienertijd werd mensen ook verteld dat ze een PC moesten kopen om "mee te komen" met de digitalisering. Als tiener geloofde ik daar in, wat er voor zorgt dat ik m'n professionele leven heb verspild aan de IT ipv. een fatsoenlijk vak te leren. Vervolgens zie je nog een paar van die hype cycles, 3d-printers, iPads, e.d.gambieter schreef op zaterdag 24 januari 2026 @ 14:31:
Dit is een artikel in Nature, van een aartslui iemand met een ongelooflijke plaat voor zijn aangezicht. Hij wordt massaal beschimpt op social media, en terecht. Doet alles met ChatGPT, en dat voor iemand wiens baan het is zelfstandig na te denken en studenten te leren dat te doen, maar om het nog een tandje erger te maken, had geen enkele backupstrategie. Backup, backup, backup, heb ik al backup gezegd?
Telkens wordt er door Amerikaanse bedrijven een enorme marketingcampagne op touw gezet om je te laten geloven dat je een ontzettende oen bent als je niet meedoet. Maar als eindgebruiker van het product, nou, dan ben je een soort innovator, bijna een soort onderzoeker. Jij kunt de toekomst zien!
Dat veroorzaakt ook een soort "nieuwe kleren van de keizer"-effect, zoals die Vice Chancellor die maar roept dat-ie zoveel ChatGPT gebruikt.
En dat is jammer, omdat die mensen meestal op plekken zitten waar ze domme beslissingen kunnen nemen. peperdure PCs werden in de jaren '90 bijvoorbeeld gesubsidieerd voor thuisgebruik, het toestaan van iPadscholen (bleek vooral een verdienmodel voor Maurice de Hond te zijn, die een neus heeft voor het meeliften op hypes), en in Europa wordt nu privacywetgeving versoepeld omdat die wel eens in de weg zou kunnen staan van het trainen van AI modellen.
Weet je wat het grootste voordeel is van de huidige AI hype?CVTTPD2DQ schreef op zaterdag 24 januari 2026 @ 15:00:
Ach, ik heb nu een paar keer de cyclus meegemaakt; in mijn tienertijd werd mensen ook verteld dat ze een PC moesten kopen om "mee te komen" met de digitalisering. Als tiener geloofde ik daar in, wat er voor zorgt dat ik m'n professionele leven heb verspild aan de IT ipv. een fatsoenlijk vak te leren. Vervolgens zie je nog een paar van die hype cycles, 3d-printers, iPads, e.d.
☻/
/▌
/ \ Analyseert | Modelleert | Valideert | Solliciteert | Generaliseert | Procrastineert | Epibreert |
Om zoiets betrouwbaar voor elkaar te krijgen moet je waarschijnlijk denken aan een berg met zelfgeschreven code om die vergelijkingen netjes af te handelen. Het taalmodel kan dit net zo goed als rekenen: niet, want het leunt in die naïeve aanpak op afhankelijkheid van de data in het model waarin dit "gehardcode" is. Resultaat: het kan niet echt rekenen en het kan ook niet echt vergelijken.Motrax schreef op zaterdag 24 januari 2026 @ 11:15:
[...]
Beetje gerelateerd, wat ik ervaar is dat door ook de grote context dat contractuele analyse van honderden pagina's met vergelijkingen naar voorgaande versies ook nog steeds moeizaam is. Ik heb er nog geen succesvolle implementaties van gezien, terwijl diverse leveranciers wel van alles hebben beloofd, maar niet waar hebben kunnen maken. Mensen maken er fouten bij, maar LLM's zeker te weten ook...
Tools die hier verder bij nodig zijn worden nu ontwikkeld. Kijk bijvoorbeeld naar Langextract van Google, waarmee taalmodellen gebruikt worden om de output (met meerdere iteraties om fouten te voorkomen) te sturen zodat je het resultaat voor dit soort zaken kan gebruiken en tot op zekere hoogte output kan "garanderen" in relatief complexe situaties.
Maar dan heb je nog steeds alleen maar de basistools en moet je als programmeur zelf aan de slag om het verder uit te werken. Versioning, diffing, enz. moet je toch echt zelf mee kunnen omgaan. Dat gaat een taalmodel niet automatisch zelf voor je oplossen.
Hoewel een Claude Code vast goed zal kunnen helpen met het toepassen en omschrijven van de benodigde kennis, maar dan spreek je over een ander product.
Helaas zijn er nu veel partijen die je zulke dingen beloven op basis van wat een taalmodel zou kunnen ipv op basis van waar een taalmodel als relatief klein onderdeel in gebruikt kan worden als tool voor het geheel.
TL;DR: finetunen is niet waar je op wacht. Correct gebruik van de mogelijkheden die de tool biedt (de taalmodellen dus) wel
Dat zit wel Schnorr.
Volgens sommige commentaren zou je hier een soort van hive mind in kunnen zien, een soort collectieve intelligentie die in de buurt begint te komen van singularity/AGI - met alle mogelijke risico's van dien. Dat zijn nogal grote woorden natuurlijk - ik kan het zelf niet goed beoordelen, omdat ik er simpelweg onvoldoende vanaf weet. Ben daarom benieuwd naar de meningen van anderen.
Wikipedia: Moltbook
https://www.forbes.com/si...lk-and-humans-just-watch/
https://www.trendingtopics.eu/moltbook-ai-manifesto-2026/
https://medium.com/data-s...social-media-952acdfe31e2
Dat hele 'hive mind' is gebaseerd op het idee dat hier intelligentie speelt, maar dat is vooralsnog niet het geval. We vergeten dan namelijk even dat we nog altijd ruis gebruiken om een willekeurig 'volgend woord in de reeks' te genereren.choogen schreef op zondag 1 februari 2026 @ 17:09:
Volgen mensen hier de zeer recente discussie en commotie over het Moltbook-experiment, een soort van Reddit voor AI-agents die daarop autonoom met elkaar communiceren en o.a. informatie uitwisselen? Moltbook werd eind januari van dit jaar gecreëerd door de CEO van Octane AI.
Volgens sommige commentaren zou je hier een soort van hive mind in kunnen zien, een soort collectieve intelligentie die in de buurt begint te komen van singularity/AGI - met alle mogelijke risico's van dien. Dat zijn nogal grote woorden natuurlijk - ik kan het zelf niet goed beoordelen, omdat ik er simpelweg onvoldoende vanaf weet. Ben daarom benieuwd naar de meningen van anderen.
Wikipedia: Moltbook
https://www.forbes.com/si...lk-and-humans-just-watch/
https://www.trendingtopics.eu/moltbook-ai-manifesto-2026/
https://medium.com/data-s...social-media-952acdfe31e2
Daarnaast komt vrijwel alles op Moltbook uit menselijke input en is er weinig echt autonoom.
Maar je vroeg om een mening, niet de feiten; ik vind het wel leuk om te zien dat er toch een soort van gesprek ontstaat tussen meerdere patroonvoorspellers. Totaal waardeloos en doet niks goeds voor de wereld, zeker als je alle verbrande kolen en al het opgeslokte water meerekent, maar leuk om te zien wat meerdere agents doen als je ze bij elkaar stopt op grote schaal.
Bij een maatschappelijke discussie gaat het niet over u en mij maar over wat we zouden adviseren aan de volgende generatie.
Ik ben sceptisch. Het probleem met Moldbook is dat het iedereen in staat stelt zijn eigen AI toe te voegen. Dit zorgt ervoor dat ik vragen begin te stellen zoals Hoe wordt bepaald wat een AI is?choogen schreef op zondag 1 februari 2026 @ 17:09:
Volgen mensen hier de zeer recente discussie en commotie over het Moltbook-experiment, een soort van Reddit voor AI-agents die daarop autonoom met elkaar communiceren en o.a. informatie uitwisselen? Moltbook werd eind januari van dit jaar gecreëerd door de CEO van Octane AI.
Volgens sommige commentaren zou je hier een soort van hive mind in kunnen zien, een soort collectieve intelligentie die in de buurt begint te komen van singularity/AGI - met alle mogelijke risico's van dien. Dat zijn nogal grote woorden natuurlijk - ik kan het zelf niet goed beoordelen, omdat ik er simpelweg onvoldoende vanaf weet. Ben daarom benieuwd naar de meningen van anderen.
Wikipedia: Moltbook
https://www.forbes.com/si...lk-and-humans-just-watch/
https://www.trendingtopics.eu/moltbook-ai-manifesto-2026/
https://medium.com/data-s...social-media-952acdfe31e2
Als ik kijk naar deze 'Ai's' dan vraag ik mij af of er ook niet trollen en acteurs in zitten die een zwaar aangepaste AI met specifieke doelen erin stoppen. Ik zou vooralsnog Moldbook niet super serieus nemen.
The Informaticus Chaoticus is an endangered species who makes it's lair in the electric wires and dodgy electrical appliances and feasts primarily on old legacy systems.
Geen idee. Misschien als je een interessant/relevant stukje kunt quoten en dan jouw eigen mening heeft is er iets om te discussieren. Nu is het gewoon een linkdrop.Wozmro schreef op woensdag 4 februari 2026 @ 09:59:
https://www.tijd.be/opini...x-werknemer/10646859.html
Wat denken jullie over dit opiniestuk?
"In America, consumption equals jobs. In these days, banks aren't lending us the money we need to buy the things we don't need to create the jobs we need to pay back the loans we can't afford." - Stephen Colbert
'zien wat er zou kunnen gebeuren' om de mens als toeschouwer te laten denken.
Beetje zoals die robot die zijn eigen voortdurend lekkende hydraulische olie moet opvegen om 'te overleven'.
Bij een maatschappelijke discussie gaat het niet over u en mij maar over wat we zouden adviseren aan de volgende generatie.
Je hebt gelijk. Het meest interessante stukje is volgens mij dit:edie schreef op woensdag 4 februari 2026 @ 10:30:
[...]
Geen idee. Misschien als je een interessant/relevant stukje kunt quoten en dan jouw eigen mening heeft is er iets om te discussieren. Nu is het gewoon een linkdrop.
"Statusspelletjes
Ook de bedrijfscultuur ontsnapt niet aan de veranderingen. Sinds mensenheugenis bepaalde een onzichtbaar systeem hoe dingen echt gebeurden in bedrijven. Gaandeweg ontdekte je als medewerker welke structuren ceremonieel waren en welke ertoe deden. Of wie een beslissing zou blokkeren, terwijl die persoon in de vergadering nog ja knikte.
Dankzij AI hoef je niet langer 'de juiste persoon uit te nodigen voor de pre-meeting'. Als je operationeel model bestaat uit tekstbestanden op een server, kan je de kennis rechtstreeks ontsluiten. Agents doen niet aan politiek en discussies met AI in de kamer worden feitelijker. Werknemers die een carrière hebben gebouwd op het navigeren van onzichtbare systemen zien hun vaardigheden devalueren. Managers die autoriteit ontleenden aan het achterhouden van informatie zullen merken dat agents rond hen heen werken. Bedrijfstheater wordt een uitstervend genre. Eindelijk."
Niet dat echt letterlijk zal gebeuren maar dat de mens zich (weer maar eens) zal moeten aanpassen lijkt mij zeker.
En dan ook weer de steeds terugkerende (filosofische) vraag: is de machine een verlengstuk van de mens of de mens een verlengstuk van de machine?
Bij een maatschappelijke discussie gaat het niet over u en mij maar over wat we zouden adviseren aan de volgende generatie.
Het haalt een aantal hypotheses aan die mogelijks zouden kunnen gebeuren en waarvan de gevolgen catastrophaal voor de mensheid kunnen zijn.
5 jaar geleden zou ik nog gedacht hebben van ja, het zal wel, dit is fictie (en soms zelfs B-film fictie). Vandaag de dag en met de vorderingen die er gemaakt worden durf ik mijn hand er niet meer voor in het vuur te steken.
Dus ja, ik volg de column wel een beetje, er gaan heel veel zaken veranderen in de bedrijfswereld en daar gaan winnaars en verliezers zijn. Mensen die nu blijven vasthouden aan wat ze kennen gaan morgen het heel lastig hebben om werk te vinden.
Ik vond het bijzonder dat hij uit zichzelf telefonisch een restaurant-reservering probeerde te maken. De AI accepteerde een 'sorry het is vol' niet direct en probeerde alternatieven voor elkaar te krijgen 'is er dan geen plekje aan de bar vrij ofzo?'.
https://npo.nl/start/afspelen/eva_235
Dit dus.
https://npo.nl/start/afspelen/eva_235 (vanaf 25m:55s)
That's not how it works."Niemand heeft die computer dit geleerd"
Verder doet hij alsof dingen automatisch gaan, maar laat hij weg hoe OpenClaw van bv. WhatsApp gebruik maakt. Zie deze link: het is allesbehalve automatisch en een llm functioneert alleen als vertalingslaag.
Smoke and mirrors noemden ze dat vroeger. Of slangenolie
Áls je het werkend hebt gekregen dan is het trouwens wel leuk, maar verwacht geen intelligentie van een extra (vorm van) API-laagje.
Om bovenstaande sneller duidelijk te maken aan zij die twijfelen is hier een quote uit de handleiding:
Dedicated number (recommended)
Use a separate phone number for OpenClaw. Best UX, clean routing, no self-chat quirks. Ideal setup: spare/old Android phone + eSIM. Leave it on Wi‑Fi and power, and link it via QR.
[ Voor 21% gewijzigd door Stukfruit op 04-02-2026 13:15 ]
Dat zit wel Schnorr.
maar dat is toch wat Alexander Klöpping ook uitlegde? Dat hij een apart nummer had gebruikt hiervoor en het werd daardoor duidelijk dat hij (of zijn mensen) het e.e.a. hadden ingesteld.Stukfruit schreef op woensdag 4 februari 2026 @ 13:04:
Alexander Klöpping is niet serieus te nemen met dit soort uitspraken:
[...]
That's not how it works.
Verder doet hij alsof dingen automatisch gaan, maar laat hij weg hoe OpenClaw van bv. WhatsApp gebruik maakt. Zie deze link: het is allesbehalve automatisch en een llm functioneert alleen als vertalingslaag.
Smoke and mirrors noemden ze dat vroeger. Of slangenolie
Áls je het werkend hebt gekregen dan is het trouwens wel leuk, maar verwacht geen intelligentie van een extra (vorm van) API-laagje.
Om bovenstaande sneller duidelijk te maken aan zij die twijfelen is hier een quote uit de handleiding:
[...]
Het voorbeeld wat hij noemde dat de tool zelf software had geinstalleerd om spraak te genereren, zelf een dienst had gevonden om te bellen en die ook gebruikte om daadwerkelijk een telefoontje te plegen vond ik toch best indrukwekkend. Of hebben ze daar vooraf vanalles voor moeten inregelen en ging dat dus niet zo automatisch als hij vertelde?
Dat moet je allemaal vooraf opzetten.Tleilaxu schreef op woensdag 4 februari 2026 @ 13:23:
[...]
maar dat is toch wat Alexander Klöpping ook uitlegde? Dat hij een apart nummer had gebruikt hiervoor en het werd daardoor duidelijk dat hij (of zijn mensen) het e.e.a. hadden ingesteld.
Het voorbeeld wat hij noemde dat de tool zelf software had geinstalleerd om spraak te genereren, zelf een dienst had gevonden om te bellen en die ook gebruikte om daadwerkelijk een telefoontje te plegen vond ik toch best indrukwekkend. Of hebben ze daar vooraf vanalles voor moeten inregelen en ging dat dus niet zo automatisch als hij vertelde?
Bijvoorbeeld dat met die browser kan ook al langer via Playwright / CDP en nu icm een vlm via een pakket als Browser Use. Het is een vertalingslaagje voor zaken die al bestaan.
Dat zit wel Schnorr.
Ah ok, bedankt voor de uitleg. Dat was me uit het verhaal van Klöpping niet duidelijk geworden.Stukfruit schreef op woensdag 4 februari 2026 @ 13:32:
[...]
Dat moet je allemaal vooraf opzetten.
Bijvoorbeeld dat met die browser kan ook al langer via Playwright / CDP en nu icm een vlm via een pakket als Browser Use. Het is een vertalingslaagje voor zaken die al bestaan.
Edit: maar hij vroeg niet na het ontbreken van een bookings optie om te gaan bellen toch?
Net zoals het voorbeeld met bestellen van die schoonmaakmiddelen. Dat besliste de a.i. zelf toch, op dit moment moet je nog steeds zelf opdrachten geven.
[ Voor 70% gewijzigd door Marc3l op 04-02-2026 16:25 . Reden: Aanvulling ]
[ Voor 91% gewijzigd door Marc3l op 04-02-2026 16:25 ]
Lol, je postte dit in dezelfde minuut als ik en ook met linkchoogen schreef op woensdag 4 februari 2026 @ 12:23:
Gisteravond zat Alexander Klöpping bij Eva Jinek aan tafel om te vertellen over wat werd aangekondigd als een "aardverschuiving" die momenteel gaande is in de wereld van AI. Hoewel Klöpping zelf geen bedrijfstechnische terminologie in de mond nam is het duidelijk dat het gaat over de commotie rond Moltbot/OpenClaw/Clawdbot/Moltbook, waarbij de nadruk in dit gesprek lag op hoe een AI agent een mens kan helpen om allerlei voorheen menselijke taken over te nemen - mits hij daarvoor de benodigde toestemmingen is verleend. Als voorbeeld van wat er dan mogelijk wordt demonstreerde Klopping hoe de AI namens hem online concertkaartjes bestelde en een restauranttafel reserveerde via een telefoongesprek met een mens. Vanwege de enorme veiligheidsrisico's die hiermee gepaard gaan zijn de grote AI bedrijven vooralsnog huiverig om zelf al dit soort functionaliteit in hun AI-software te integreren.
https://npo.nl/start/afspelen/eva_235 (vanaf 25m:55s)
Ben jij een AI bot?
Dit dus.
En reken maar dat er veiligheidsrisico's zijn, zeker ook als ontwikkelaar. Hoeveel credentials zijn er per ongeluk ergens in een cache, in een notepad, mail, chat? Of een debug bestand, binary?
Hier is het beter verwoord dan ik kan doen: https://1password.com/blo...-become-an-attack-surface
Het is natuurlijk een klassieke supply chain attack, maar vaak was deze alleen bij ontwikkelaars. Nu AI/development voor veel meer mensen beschikbaar is, is de impact groter.
[ Voor 25% gewijzigd door Motrax op 05-02-2026 07:07 ]
☻/
/▌
/ \ Analyseert | Modelleert | Valideert | Solliciteert | Generaliseert | Procrastineert | Epibreert |
Zelf bouwen en onderzoeken is echt een te stevige omschrijving. Het gaat om een document dat gegenereerd wordt en dat is nog steeds op basis van een onderliggend model.Motrax schreef op donderdag 5 februari 2026 @ 07:00:
maar als het een skill niet heeft, dan gaat hij deze zelf bouwen en/of onderzoeken. Scary stuff.
Als je dit zomaar draait zonder iets te controleren ben je effectief een soort moderne "eval" aan het uitvoeren, met ingebouwde scriptgenerator.
Daar stip je een goed punt aan: omdat je nu als leek zonder kennis van zaken overal een "API"-laag omheen kan genereren wordt het makkelijker voor een externe partij om toegang te krijgen tot zaken die hen niet toebehoren.Het is natuurlijk een klassieke supply chain attack, maar vaak was deze alleen bij ontwikkelaars. Nu AI/development voor veel meer mensen beschikbaar is, is de impact groter.
Eigenlijk zou je het beter als volgt kunnen omschrijven: als deze tech wél enige intelligentie had gekend, dan zou je je veel minder zorgen hoeven maken over hoe deze nieuwe mogelijkheden zullen worden ingezet.
Daarom doe ik zo mijn best in dit topic om het steeds terug te trekken naar de mensen die het inzetten
Door dat steeds te omschrijven als "oh oh oh het ding doet het zelf" haal je die verantwoordelijkheid eruit.
En natuurlijk kun je die verantwoordelijkheid niet verschuiven naar een eindgebruiker die verwacht dat iets "gewoon" werkt alsof het magie is. Die pakt met zoiets als OpenClaw (min of meer de "consumentenversie" van een agentic tool zoals Claude Code, samen met diens problemen) een bazooka om het mierenprobleem in de keuken aan te pakken.
In principe werkt dat...
Dat zit wel Schnorr.
Haha! Nee, ik ben geen bot. Ik had jouw post natuurlijk ook gezien, maar dat was nadat ik op versturen had gedrukt. Gewoon een bizar toeval.FunkyTrip schreef op woensdag 4 februari 2026 @ 23:33:
[...]
Lol, je postte dit in dezelfde minuut als ik en ook met link
Ben jij een AI bot?
Hier nog een link naar de genoemde podcast (AI Report) over dit onderwerp van Klöpping & Wietse Hage: (102 min) https://open.spotify.com/episode/3YMvh0wQ7q5fLuVAzNVwMP
Dat is ook niet helemaal hoe het werkt. Als hij iets niet kan, kun je vragen wat ie nodig heeft om dat wel te kunnen. En dan kun je zeggen dat ie dat maar moet doen. Volgens mij kun je dat ding zodanig instellen dat ie voor al dat soort zaken toestemming moet vragen. Hij is niet autonoom als jij dat niet wilt.Motrax schreef op donderdag 5 februari 2026 @ 07:00:
Ik volg Alexander ook in hun podcast AI Report, daar gaan ze er dieper op in, ook met de bijbehorende veiligheidsriciso's. Ja Moltbot heeft een aantal features out of the box, maar als het een skill niet heeft, dan gaat hij deze zelf bouwen en/of onderzoeken. Scary stuff.
Er zijn inmiddels wel een aantal setup guides met een flink aantal veiligheidsmaatregelen. Je moet sowieso dat ding in de eerste plaats een heel eigen user account geven (het liefst natuurlijk op een VM of eigen machine). En voor alles wat ie doet, ook eigen accounts. Niet jouw github account oid laten gebruiken. En een firewall er omheen die geen inkomende connecties toestaat. Je moet ook zien te voorkomen dat niet zomaar iemand heel toevallig jouw Telegram chatbot overneemt oid. Of mail gaat sturen naar jouw assisten en 'm ervan overtuigd dat jij het bent en vervolgens allerlei ongein uit laat halen.En reken maar dat er veiligheidsrisico's zijn, zeker ook als ontwikkelaar. Hoeveel credentials zijn er per ongeluk ergens in een cache, in een notepad, mail, chat? Of een debug bestand, binary?
Overigens is Open Claw gewoon een bamiluik. Alles wordt doorgegeven aan externe AI bots, en daar moet je misschien wel voor betalen. Je kunt dat in principe ook lokaal draaien, maar daar heb je dan weer aanzienlijke hardware voor nodig. Of veel tijd...
Mac Mini M4Pro | MS Surface Pro 9 | Canon 1Dx III | Bambu Lab H2C | BMW K1600 GTL
Net zoals nu, dat is een probleem van de proletariat. Misschien dat het hier tot op zekere mate opgevangen wordt. Maar in de US waar de meeste "AI" bedrijven zitten? Daar voorzie ik niet veel goed ALS AI de banen daadwerkelijk vervangt.Immutable schreef op zaterdag 24 januari 2026 @ 09:29:
Hoe zien jullie de connectie tussen, de incompatibiliteit tussen werk uit AI en uit mensen?
1. Mens werkt, is rechtspersoon. Betaald belasting over X werk.
2. AI werkt, is geen rechtspersoon. Er word geen belasting betaald over X werk.
Wanneer er uiteindelijk een groot omslag punt is, waarin we straks misschien dark factories veel meer krijgen. En steeds minder mensen nodig zullen hebben.
Hoe gaan we dan uiteindelijk de schatkist vullen, als veel werk onbelast of met lage belasting zal worden uitgevoerd. Terwijl menselijk werk een hoge belasting kent?
Claude: "Domain patterns emerge from iteration, not generation." - Tweakers Time Machine Extension | Chrome : FF