Acties:
  • 0 Henk 'm!

  • psychodude
  • Registratie: Maart 2008
  • Laatst online: 07:00
Stukfruit schreef op dinsdag 1 juli 2025 @ 19:51:
Het is vooral bewijs dat het zo werkt, maar de conclusie die getrokken lijkt te worden vind ik niet kloppen.

Nu moet ik er bij vermelden dat ik nog niet de hele paper heb gelezen, dus wellicht halen ze het zelf ook aan. Maar check even een voorbeeld (pagina 27):

[...]


Wordt hier niet gemist dat als je zo'n prompt door een LLM haalt dat er geen onderbouwde mening uit kán komen rollen omdat het taalmodel herkauwt wat de input voor het model was? Het kán niet redeneren over dit soort zaken.

Wat ik eigenlijk wil zeggen: dit zijn 100% geen vragen waar je een taalmodel voor zou gebruiken.

Natuurlijk zullen er heel veel mensen zijn die dit wel gaan doen omdat ze niet begrijpen wat de mogelijkheden van een taalmodel zijn, maar ik vond het ondanks dat toch wel een belangrijke kantnoot.

Het heeft nogal wat gevolgen voor de conclusies die getrokken lijken te worden.
Voor de onderzoeksopzet maakt dat natuurlijk niet uit. De diverse LLM's confabuleren de onderbouwing voor een essay namelijk gewoon.

Het gaat er binnen de uitkomsten verder ook helemaal niet zozeer om of één en ander inhoudelijk juist is. Maar meer om te toetsen wat het effect is op bijvoorbeeld memory retention. Ben jij in staat om adequaat te onthouden wat jij net in je essay hebt geschreven.

Waarin de uitkomsten in zekere zin ook niet geheel verrassend zijn. Vervang LLM door "vriend X met altijd goede cijfers" en het resultaat zal voor de gemiddelde middelbare scholier niet veel anders zijn geweest. Des te meer werk een ander levert, des te minder dat het bij jezelf beklijft.

De vraag is verder natuurlijk nog altijd wel, is dit erg?

Persoonlijk denk ik het niet direct. Sure, mensen moeten weten wat de beperkingen zijn van modellen. Maar dit is vergelijkbaar zoals velen van ons opgegroeid zijn met online zin van onzin onderscheiden. Information at our fingertips. In plaats van alles nog tot in den treuren stampen.

Eén en ander is in loop der jaren gewoon komen te verschuiven, van:

1. Stampen van rijtjes, beschikken over parate kennis;
2. Naar weten hoe informatie online te vinden, informatie op waarde te schatten;
3. Tot weten welke modellen voor welke vraag te gebruiken, hernieuwd beschikken over parate kennis (by proxy).

Stap 3 zijn we natuurlijk nog niet helemaal. Maar naarmate a) modellen zich ontwikkelen en b) de gemiddelde persoon een beter begrip ontwikkeld van de diverse modellen, komt dit vanzelf. Er zal al snel natuurlijk wel een generatie overheen gaan alvorens je dit bereikt.

En net als dat er nu nog altijd mensen zijn die het allemaal maar onzin vinden om informatie te googlen, online bronnen te raadplegen, etc. Vinden dat alles parate kennis dient te zijn. Zullen er natuurlijk ook nog lange tijd mensen zijn die zullen gaan propageren zelf te moeten weten waar één en ander te vinden.

Terugkerend op de onderzoeksopzet, is dit verder natuurlijk ook gewoon mede bepalend voor de uitkomst:
Stage 4: Essay Writing Task
Once the participants were done with the calibration task, they were introduced to their task:
essay writing. For each of three sessions, a choice of 3 topic prompts were offered to a
participant to select from, totaling 9 unique prompts for the duration of the whole study (3
sessions). All the topics were taken from SAT tests. Here are prompts for each session:
Post-assessment interview analysis
Following the task completion, participants were then asked to discuss the task and their
approach towards addressing the task.
The questions included (slightly adjusted for each group):
29

...

3. Can you quote any sentence from your essay without looking at it?
If yes, please, provide the quote.

...
Vervang LLM weer door vriend X. Indien ik vriend X in belangrijke mate of geheel mijn essay laat schrijven, en dit inlever bij de docent, met de opdracht "schrijf een essay". Dan wordt het achteraf natuurlijk ook lastig selectief quoten. Dit was de opdracht namelijk helemaal niet.

Ergens zie ik dit soort resultaten dan ook een beetje als een open deur.

Verder zijn er natuurlijk ook een aantal conclusies waarvan translatie naar dagelijkse praktijk in twijfel te trekken valt. Bijvoorbeeld op vlak van creativiteit.

De studie opzet in deze is zo namelijk ook weer bepalend.

In dit geval krijgen de studie deelnemers zelf de keuze om een essay te schrijven, uit een set van opdrachten, naar eigen keuze. Hierin kun je er dus voor kiezen om een onderwerp te kiezen welk redelijk in je eigen straatje ligt. Dat het in dit geval creativiteit niet ten goede komt, door een LLM een belangrijk deel voor te laten kauwen, is wederom natuurlijk weer een open deur.

Maar veel interessanter is het natuurlijk om te weten, hoe zit dit bijvoorbeeld op moment dat je iets moet schrijven dat in zekere zin ver buiten de eigen comfort zone ligt, buiten de directe eigen expertise, en iets dat je gewoonlijk liever uit de weg gaat. Het zou mij niet verbazen om te zien dat de conclusies in dat geval, totaal anders zouden zijn.
champion16 schreef op maandag 19 mei 2025 @ 19:01:
CPO (chief product officer) van OpenAI heeft 3 dagen geleden gezegd dat hun coding agent (Codex) van junior engineer naar senior (6 maanden) en architect (1 jaar) zal gaan.
(Bron: YouTube: A conversation with OpenAI’s Chief Product Officer, Kevin Weil).

Wat denken we hiervan? Dat zou betekenen dat binnen een jaar een groot deel van het werk van een IT er zal verdwijnen...
Zal heus wel een wij van wc eend gedeelte in zitten, maar wel lastig..
Eerst zien, dan geloven. Binnen mijn eigen werkveld, werd inmiddels alweer bijna 10 jaar geleden tijdens de opmars van AI geroepen dat nieuwe radiologen eigenlijk maar beter een andere opleiding konden gaan zoeken. Binnen een klein aantal jaar zouden wij volledig vervangen zijn. Ook een aantal Nederlandse politici hebben dit idee nog wel eens geroepen.

Ondertussen zijn we bijna 10 jaar verder. Is AI een leuk hulpmiddel binnen een zeer beperkt aantal vraagstellingen. Is er nog geen enkel AI pakket dat stand-alone bijvoorbeeld een CT onderzoek volledig beoordeelt, in plaats van enkel het doen beantwoorden van een zeer afgebakende subvraag. En zelfs beantwoorden van die subvraag, kan nog geen enkel product in de dagelijkse praktijk ook maar echt nabij medisch verantwoord.

In belangrijke mate zit er natuurlijk ook gewoon veel technology push achter. Er gaat veel geld om in de AI industrie. Het is een lucratieve business. En daarin is het natuurlijk ook voornamelijk belangrijk om shareholders een worst voor te houden.

Acties:
  • 0 Henk 'm!

  • Stukfruit
  • Registratie: Oktober 2007
  • Niet online
Wat ik probeerde te zeggen is dat je de genoemde conclusies niet kan uitsmeren over de gehele bevolking omdat het er meer op lijkt dat dit hetzelfde effect gaat versterken dat al jaren gaande is en zich heeft geuit in het gedrag op o.a. sociale media.

Je zou het zelfs als iets positiefs kunnen interpreteren en aannemen dat mensen er gemiddeld genomen eventueel juist meer van kunnen opsteken, omdat veel mensen überhaupt niet zo diep zouden gaan met bepaalde zaken. Zie de extremistische hoek waarin zaken opvallend vaak worden versimpeld en oorzaak wordt genegeerd.

Maar goed, dan komt commercie weer om de hoek kijken, dus die hoop heb ik helaas niet ;)

[ Voor 10% gewijzigd door Stukfruit op 01-07-2025 21:59 ]

Dat zit wel Schnorr.


Acties:
  • 0 Henk 'm!

  • Yaksa
  • Registratie: December 2008
  • Nu online
psychodude schreef op dinsdag 1 juli 2025 @ 21:38:
[...]Het is een lucratieve business. En daarin is het natuurlijk ook voornamelijk belangrijk om shareholders een worst voor te houden.
En wanneer je als shareholder dan de vraag aan AI stelt: "Wat zit er in die worst?"
Dan krijgt deze waarschijnlijk als antwoord terug: "Things you like".

Only two things are infinite, the universe and human stupidity, and I'm not sure about the former


Acties:
  • +1 Henk 'm!

  • FunkyTrip
  • Registratie: November 2001
  • Nu online

FunkyTrip

Funky vidi vici!

boxlessness schreef op dinsdag 1 juli 2025 @ 19:26:
[...]

Voor wie 200+ pagina's aan studie willen doorspitten over dit onderwerp.
Ze hebben dus hersenscans gemaakt (resultaten in de paper vanaf pagina 76) van wel/niet AI-gebruikers bij bepaalde taken en vonden een afname in hersenactiviteit geassocieerd met creatief denken bij de wel AI-gebruikers.
De theorie hierachter is dat het offloaden van cognitieve taken naar een AI ten koste gaat van onze eigen capaciteit omdat we ons brein dan minder gebruiken (net zoals je fysiek sterker wordt wanneer je je spieren regelmatig gebruikt).
Is hier rekening gehouden met het feit dat AI gebruikers wellicht van nature minder creatief denken en zich dus sowieso sneller tot AI richten ipv de creatieve denkers die het eerst zelf willen proberen. Dat zou al meteen een bias geven.

Dit dus.


Acties:
  • 0 Henk 'm!

  • boxlessness
  • Registratie: Januari 2017
  • Laatst online: 26-07 22:02
FunkyTrip schreef op woensdag 2 juli 2025 @ 09:41:
[...]


Is hier rekening gehouden met het feit dat AI gebruikers wellicht van nature minder creatief denken en zich dus sowieso sneller tot AI richten ipv de creatieve denkers die het eerst zelf willen proberen. Dat zou al meteen een bias geven.
De deelnemers zijn willekeurig in drie groepen ingedeeld en hebben taken gedaan met/zonder AI, dus er is geen bias van mensen die een voorkeur hebben om wel/niet met AI te werken.
Men heeft hier het directe/korte-termijn effect gemeten van het gebruik van AI.

Dat wat jij wilt weten is of je meetbaar "dommer" wordt over de lange termijn wanneer je AI gebruikt. Helaas is dat door (onder andere) de bias die jij noemt waarschijnlijk niet betrouwbaar te meten.
Daar zal vast wel eens een studie over komen. De OECD heeft al eens wat gezegd over correlatie met stagnerende/afnemende literacy/numeracy rates en een correlatie met "digitalisering" (p114 voor grafiekje).
Ik kom wel eens tegen dat daar verbanden worden gelegd met o.a. telefoongebruik, social media, en nu ook AI. Met name sinds deze dingen psychologische dark-patterns inzetten om aandacht vast te houden (o.a. om zo veel mogelijk advertenties te slijten), in plaats van om echt behulpzame/nuttige tools te zijn. Maar ik weet niet hoe betrouwbaar dat is want mijn bron daarvoor is een beetje de pop-science-hoek.

Acties:
  • +2 Henk 'm!

  • autje
  • Registratie: Januari 2009
  • Nu online
psychodude schreef op dinsdag 1 juli 2025 @ 21:38:
[...]


Eén en ander is in loop der jaren gewoon komen te verschuiven, van:

1. Stampen van rijtjes, beschikken over parate kennis;
2. Naar weten hoe informatie online te vinden, informatie op waarde te schatten;
3. Tot weten welke modellen voor welke vraag te gebruiken, hernieuwd beschikken over parate kennis (by proxy).
De key is hier natuurlijk het dikgedrukte. En ik denk dat veel mensen hier in toenemende mate problemen mee hebben. Er wordt wel eens gekscherend gezegd, "Het staat op het internet, dus het is waar", maar hele volksstammen geloven daar ook echt in. We hebben hier niet voor niets topics over het vinden van betrouwbare bronnen.

Het probleem met producten zoals ChatGPT is dat dat op waarde schatten lastiger is, omdat er minder duidelijkheid is wat de bronnen zijn waarop de informatie gebaseerd is.

Dat is denk ik de belangrijkste kort-door-de-bocht conclusie: dat mensen minder nadenken en sneller klakkeloos aannemen wat AI zegt.

Daarnaast heeft het artikel het ook over het homogeniseren van de resultaten. Ik heb het zelf wel eens geprobeerd door ChatGPT recensies te laten schrijven van een aantal films. Dan zie je vanzelf dat deze recencies allemaal hetzelfde stramien volgen, alsof het een template is wat ingevuld wordt: dezelfde opbouw, dezelfde woordkeuzes, dezelfde eenheidsworst.

Acties:
  • +1 Henk 'm!

  • psychodude
  • Registratie: Maart 2008
  • Laatst online: 07:00
autje schreef op woensdag 2 juli 2025 @ 11:36:
[...]


De key is hier natuurlijk het dikgedrukte. En ik denk dat veel mensen hier in toenemende mate problemen mee hebben. Er wordt wel eens gekscherend gezegd, "Het staat op het internet, dus het is waar", maar hele volksstammen geloven daar ook echt in. We hebben hier niet voor niets topics over het vinden van betrouwbare bronnen.

Het probleem met producten zoals ChatGPT is dat dat op waarde schatten lastiger is, omdat er minder duidelijkheid is wat de bronnen zijn waarop de informatie gebaseerd is.

Dat is denk ik de belangrijkste kort-door-de-bocht conclusie: dat mensen minder nadenken en sneller klakkeloos aannemen wat AI zegt.

Daarnaast heeft het artikel het ook over het homogeniseren van de resultaten. Ik heb het zelf wel eens geprobeerd door ChatGPT recensies te laten schrijven van een aantal films. Dan zie je vanzelf dat deze recencies allemaal hetzelfde stramien volgen, alsof het een template is wat ingevuld wordt: dezelfde opbouw, dezelfde woordkeuzes, dezelfde eenheidsworst.
Maar daarin zit voor een deel dus weer gewoon het element van tijd.

En zeker, er zal altijd gewoonweg een soort normaal verdeling blijven binnen de populatie. Maar dat is natuurlijk niets nieuws. Net als dat er mensen zijn die bronnen niet op waarde kunnen schatten, zijn er ook mensen die er weinig tot niets van bakten qua stampen van kennis. Dit ga je natuurlijk nooit ontnemen. Ook qua humane intelligentie bestaan er tenslotte verschillen.

Voor wat betreft het verloop naar op waarde schatten van AI, is stap 1 natuurlijk om te komen tot een punt waarop je niet eerst de vraag stelt, is het antwoord dat dit model weergeeft waar ja of nee. Maar nog een stap terug, is dit model geschikt om deze prompt te doen beantwoorden.

Zodra je voor jezelf de vraag kunt beantwoorden:
Is een taalmodel geschikt om betrouwbaar feitelijk correcte informatie aan te leveren?

Pas dan kun je eigenlijk adequaat doorgaan met de volgende vraag:
Is de geleverde informatie daadwerkelijk correct.

Maar in het geval van chat GPT zou je daarin dus eigenlijk al afgehaakt moeten zijn op dat punt, generatieve taalmodellen zijn niet een toepassing om in te zetten wanneer het gewenste doel feitelijke accuratesse is. Je kunt het bijvoorbeeld prima gebruiken om als basis te laten fungeren voor een tekst welk je genereerd. Maar de daadwerkelijke feiten, zul je vanuit elders dienen te verifiëren en/of aan te vullen.

Verder klopt dat laatste natuurlijk tot op zekere hoogte. Je hebt zeker wel invloed op de manier waarop dit soort taalmodellen komen tot de gegenereerde tekst.

Zie bijvoorbeeld onderstaande voorbeelden:
Critical Appraisal of Star Wars Episode I: The Phantom Menace
An incisive look at the film’s legacy

Star Wars Episode I: The Phantom Menace, released in 1999, serves as both the long-awaited prelude to George Lucas’s legendary saga and a source of fervent debate. The film dazzles with its pioneering visual effects and the grandeur of John Williams’s score, introducing memorable characters like Qui-Gon Jinn and the enigmatic Darth Maul. However, its narrative is encumbered by political exposition and an over-reliance on CGI, which sometimes overshadows character development and emotional depth. The introduction of Jar Jar Binks divided audiences, detracting from the gravitas of the story. While younger viewers may appreciate its spectacle, older fans often lament its lack of the original trilogy’s charm and subtlety. Despite these critiques, The Phantom Menace offers moments of excitement—most notably the thrilling podrace and climactic duel—securing its place as a visually ambitious, if narratively uneven, entry in the Star Wars canon.
My Review of Star Wars Episode I: The Phantom Menace
By a 12-Year-Old Star Wars Fan

Star Wars Episode I: The Phantom Menace is super cool! I really liked the podracing scene—it was so fast and exciting, I felt like I was in the race with Anakin. Darth Maul is probably my favourite villain because he looks awesome with his double-sided red lightsaber and those face tattoos. The fight at the end with Qui-Gon Jinn and Obi-Wan Kenobi versus Darth Maul was the best part—so much action! Jar Jar Binks is kind of funny, but sometimes he’s a bit annoying. I didn’t totally get all the talk about politics and trade stuff, but the spaceships and aliens made up for it. The music was epic and made everything feel more adventurous. It's not as good as the old Star Wars movies my parents like, but it's still a really fun movie with lots of cool scenes and awesome battles!
Waarin de woordkeuze in dit geval beïnvloedt wordt door enerzijds te verzoeken voor een critical appraisal en anderzijds een review geschreven door een 12-jarige. Beide varianten binnen 150 woorden.

Dit uiteraard enkel en alleen even bedoeld als snel voorbeeld. Maar je kunt hierin dus zeker nog verder sturing geven. Als ook er bijvoorbeeld voor verkiezen om bepaalde tekstdelen bijvoorbeeld te laten herschrijven.

Onder de streep is dat waar generatieve AI natuurlijk wel goed in is. Binnen no-time tekst op papier zetten. Of dit voor jezelf handig is, is natuurlijk sterk afhankelijk van de persoonlijke situatie. Maar zelf schrijf ik bijvoorbeeld redelijk wat protocollen, business cases, onderzoek aanvragen, etc. En bij veel van dit soort zaken wordt ook vaak om toelichting in begrijpelijke taal gevraagd.

Daarin is dit soort generatieve AI perfect. Een lokaal draaiend LLM kan ik gewoon vragen om bijvoorbeeld op B1 niveau een bepaald segment samen te vatten in een x-aantal woorden. En ik hoef vervolgens alleen nog maar door te lezen of er geen hele gekken dingen in zijn komen te staan qua feitelijke onjuistheden.

Acties:
  • 0 Henk 'm!

  • CVTTPD2DQ
  • Registratie: Augustus 2019
  • Laatst online: 14:22
psychodude schreef op woensdag 2 juli 2025 @ 19:56:
En ik hoef vervolgens alleen nog maar door te lezen of er geen hele gekken dingen in zijn komen te staan qua feitelijke onjuistheden.
... en dus val je weer terug op parate kennis? Want opzoeken op het internet wordt steeds moeilijker. Google geeft je standaard het Gemini-overzicht (wat vrijwel altijd potsierlijke fouten bevat), en de bovenste zoekresultaten zijn gekaapt door bedrijven die met LLMs onzinteksten over je onderwerp genereren.

Op termijn lijkt het risico toch een toekomst te zijn waarin naslagwerken weer belangrijk worden. Hoe vergeelder hoe beter. Ik zou bijna mensen willen aanraden om hun verstofte Winkler-Prins edities niet aan de voddenboer mee te geven; ooit zijn ze weer geld waard.

Verder gaat het niet alleen om feitelijke onwaarheden. LLMs koppelen hun gigantische taalvaardigheid, en hun onbetrouwbare feitenkennis aan een bijzonder laag redeneringsvermogen. zo kunnen ze geen schaak spelen. Ze kunnen honderden openingen oplepelen, maar begrijpen hoe de stukken bewegen, iets wat je een kind van zes kunt uitleggen, lukt niet. De eerder aangehaalde studie van Apple laat ook zien dat LLMs eenvoudige puzzels niet kunnen oplossen, zelfs als je ze vooraf de oplossing geeft: een LLM heeft misschien iets wat je "concepten" zou noemen, en begrijpt simpele verbanden er tussen, maar niet veel meer dan dat.

En dat maakt het moeilijk voor ons als mensen om te redeneren over de beperkingen van LLMs; we zijn er (onterecht) aan gewend om taalvaardigheid te gebruiken als indicator voor intelligentie. Iemand die goed en correct kan schrijven zal ook wel goed en correct kunnen redeneren. Dat is natuurlijk nooit waar geweest, maar het verschil tussen de verschillende vormen van intelligentie wordt nu wel op de spits gedreven.

En ik schrik een beetje als mensen vertellen dat ze veel werk nu aan LLMs kunnen uitbesteden. Zijn er echt zoveel mensen die veel tijd kwijt zijn aan hersenloos schrijfwerk? Of worden er nu op basis van misplaatst vertrouwen allerlei slordigheden geïntroduceerd?

Acties:
  • +1 Henk 'm!

  • BadRespawn
  • Registratie: Januari 2000
  • Laatst online: 12:48
CVTTPD2DQ schreef op woensdag 2 juli 2025 @ 22:27:
[...]

LLMs koppelen hun gigantische taalvaardigheid, en hun onbetrouwbare feitenkennis
Ik denk dat het zelfs iets te ver gaat om het feitenkennis te noemen. Een LLM 'weet' niet meer dan dat in de trainingsdata bepaalde woorden veel in elkaars nabijheid voor komen. Daarbij is wel enige correlatie met feiten, maar is wezenlijk iets anders dan feitenkennis.
aan een bijzonder laag redeneringsvermogen. zo kunnen ze geen schaak spelen.
Ik zou zeggen dat een LLM helemaal geen redeneringsvermogen heeft. Bobo's van sommige AI bedrijven zeggen wel eens dat (hun) LLM wel redeneringsvermogen heeft, anderen zeggen desgevraagd dat LLM's dat niet hebben - alleen is dat laatste niet iets om reclame mee te maken dus dat horen we niet zo vaak, daar moet je naar zoeken. https://www.youtube.com/@MachineLearningStreetTalk

Intussen beweert niemand dat LLM's tevens Reasoning Models zijn noch dat die een World Model hebben (voor mensen essentieel voor het begrijpen vd realiteit), aan AGI wordt immers nog gewerkt. Voor hoe dicht bij AGI al dan niet is geldt hetzelfde als redeneringsvermogen: 'nog ver weg' is niet spannend dus daar ga je geen investeerders mee werven, dus horen we dat minder vaak dan de bewering dat het een kwestie van een paar jaar is.

Trump II - Project 2025 tracker


Acties:
  • +1 Henk 'm!

  • autje
  • Registratie: Januari 2009
  • Nu online
Het probleem is dat ik als filmcriticus niet de ene keer de ene stijl kan kiezen, en bij de volgende film een andere stijl. Ik zal dus altijd de 'critical appraisal' optie kiezen, en dan krijg je altijd recensies in de stijl zoals die hierboven, zonder enige originele invalshoek een opsomming van de goede en slechte punten van de film. Waarom die punten goed of slecht zijn kun je er niet tot nauwelijks uithalen, en dat is nou juist wat een recensie moet doen.

Daarnaast kun je bijna in één oogopslag zien dat deze tekst door AI geschreven is, omdat een persoonlijke noot ontbreekt. Er is geen originaliteit, waardoor het niet uitnodigt om dit stuk te lezen. Ik weet dat LLM's geen creativiteit hebben, maar het probleem is dat je dan dus dit soort vlakke teksten krijgt.

Acties:
  • 0 Henk 'm!

  • DropjesLover
  • Registratie: November 2004
  • Laatst online: 14:24

DropjesLover

Dit dus ->

autje schreef op donderdag 3 juli 2025 @ 07:08:
Het probleem is dat ik als filmcriticus niet de ene keer de ene stijl kan kiezen, en bij de volgende film een andere stijl. Ik zal dus altijd de 'critical appraisal' optie kiezen, en dan krijg je altijd recensies in de stijl zoals die hierboven, zonder enige originele invalshoek een opsomming van de goede en slechte punten van de film. Waarom die punten goed of slecht zijn kun je er niet tot nauwelijks uithalen, en dat is nou juist wat een recensie moet doen.

Daarnaast kun je bijna in één oogopslag zien dat deze tekst door AI geschreven is, omdat een persoonlijke noot ontbreekt. Er is geen originaliteit, waardoor het niet uitnodigt om dit stuk te lezen. Ik weet dat LLM's geen creativiteit hebben, maar het probleem is dat je dan dus dit soort vlakke teksten krijgt.
Allicht, want een llm baseert zijn output op het meest waarschijnlijke / gemiddelde van zijn trainingsdata. Het is te sturen met "lovend" of "critisch", "zakelijk" of "opgewekt", maar het zal ook binnen die parameters altijd het vlakke gemiddelde zijn en niet origineel aanvoelen.

Een llm ai is niet meer dan de meest waarschijnlijke vrij van woorden die in zijn trainingsdata bij elkaar stonden.

Prima voor code, zakelijke texten of samenvattingen.
Minder voor werkelijk goed uitgewerkte texten of echte creativiteit.
Wel prima om een basis te genereren door bepaalde bestaande concepten te combineren (Harry Potter in de stijl van Shakespeare). Maar de creativiteit van de vraag en waarom het een goed/leuk/nieuw idee zou zijn, die komt bij de opdrachtgever vandaan.

[ Voor 3% gewijzigd door DropjesLover op 03-07-2025 07:22 ]

BThGvNeOA
Bond Tegen het Gebruik van Nutteloze en Onbekende Afkortingen!
Gewoon uitschrijven wat je bedoelt is zo moeilijk niet... PR (persoonlijk record?), ICE/M/A (verbrandingsmotor?), kdv (kinderdagverblijf), DA (dierenarts?)etc...,


Acties:
  • 0 Henk 'm!

  • autje
  • Registratie: Januari 2009
  • Nu online
En toch is het op scholen inmiddels goed gebruik om AI je opstel te laten schrijven, en begint zelfs de pers eraan mee te doen.

Mijns inziens moeten we dit niet normaliseren, omdat ik vrees dat we zelf hierdoor analytisch denkvermogen verliezen.

Acties:
  • 0 Henk 'm!

  • psychodude
  • Registratie: Maart 2008
  • Laatst online: 07:00
CVTTPD2DQ schreef op woensdag 2 juli 2025 @ 22:27:
[...]


... en dus val je weer terug op parate kennis? Want opzoeken op het internet wordt steeds moeilijker.
Nee, niet echt. Je valt terug op een combinatie van alles.

Binnen protocol en richtlijn ontwikkeling bijvoorbeeld val je niet terug op parate kennis. Onderdeel hiervan is vaak in het begin een literatuur search. Middels systematisch review en eventuele meta-analyse destilleer je hieruit de feiten. Daarin zit in belangrijke mate het op waarde schatten. Hetgeen verder natuurlijk ook al start bij überhaupt welke search engines je gebruikt. In dit kader, is dat bijvoorbeeld niet regulier google search, maar te denken pubmed, scopus, web of science als ook cross-referencing.

Het schrijven van de medische richtlijnen/protocollen hierin, zou ik nog niet snel uitbesteden aan een LLM. Niet zozeer omdat deze niet kan schrijven, maar meer omdat de LLM niet bekend is met de gebruikelijke formats voor e.g., eigen centrum, landelijke vakverenigingen of FMS.

Translatie naar jip-en-janneke taal vervolgens is echter natuurlijk gewoon een extra klusje. Overigens verder ook zo eenvoudig helemaal niet eens. Met name het komen tot een B1 niveau, is in de praktijk best lastig. Een LLM daarentegen genereert dit binnen no-time. Dat scheelt veel tijd. Zeker bij langere teksten. Bijvoorbeeld binnen het komen tot patiënten informatie folders. Schrijven in een andere stijl komt uiteindelijk toch minder natuurlijk, en kost derhalve meer moeite, meer tijd.

Zonder inzet van een LLM kun je voor het schrijven van een patiënten informatie folder bijvoorbeeld zit toch al snel een uur of 6 - 8 eraan zitten om alle facetten te herschrijven naar begrijpelijk Nederlands. Met ondersteuning van een LLM, kan ik dit aanzienlijk reduceren. Beperkt het grotendeels tot een vorm van proof-readen. Binnen ongeveer een uurtje kan ik met ondersteuning van LLM een bestaand lokaal protocol en relevante delen van richtlijn teksten naar een patiënten informatiefolder hebben laten herschrijven en inhoudelijk rechttrekken.

Acties:
  • +1 Henk 'm!

  • Wozmro
  • Registratie: December 2016
  • Laatst online: 12:29
Tot nader order beschouw ik een llm als een stuk gereedschap zoals de mens er al vele andere heeft; een rekenmachine, tekstverwerker, hamer, boormachine,...


Ik heb er voor specifieke taakjes al veel plezier van gehad, bijvoorbeeld bij het configureren van home assistant. Ik zou daarin zeker niet zo snel en zo ver geraakt zijn als waar het nu staat. De basis snap ik zelf wel allemaal maar de technische invulling (yaml) er van is zodanig foutgevoelig dat ik het zelf al lang zou opgeven.

Maar dan nog is het niet van: programmeer eens dit ideetje. Dat werkt nooit.
Je moet het nog altijd zelf in kleine stukjes opdelen en zorgvuldig beschrijven. En dan nog is de kans dat het van de eerste keer werkt minder dan 20%. Maar debuggen met behulp van een llm werkt voor mij best goed. De llm 'ziet' andere dingen dan ik en dat werkt best wel complementair.

Acties:
  • 0 Henk 'm!

  • CVTTPD2DQ
  • Registratie: Augustus 2019
  • Laatst online: 14:22
psychodude schreef op donderdag 3 juli 2025 @ 07:32:
Nee, niet echt. Je valt terug op een combinatie van alles.

Binnen protocol en richtlijn ontwikkeling bijvoorbeeld val je niet terug op parate kennis. Onderdeel hiervan is vaak in het begin een literatuur search. Middels systematisch review en eventuele meta-analyse destilleer je hieruit de feiten. Daarin zit in belangrijke mate het op waarde schatten. Hetgeen verder natuurlijk ook al start bij überhaupt welke search engines je gebruikt. In dit kader, is dat bijvoorbeeld niet regulier google search, maar te denken pubmed, scopus, web of science als ook cross-referencing.
Wederom, dan heb je dus een autoritatieve bibliotheek nodig, waarvan je met zekerheid kunt zeggen dat deze niet "vervuild" is door LLMs. Voor medische onderwerpen lijkt die gelukkig te bestaan, maar wetenschappelijke publicaties gaan al de verkeerde kant op, en voor meer prozaïsche onderwerpen ben je overgeleverd aan de luimen van het internet.

Het wordt nog interessanter als je schrijf/samenvattingswerk uitbesteed, omdat het de capaciteiten van een enkel persoon te boven gaat. Het is voor mensen altijd mogelijk geweest om zaken te verzinnen, maar geloofwaardig grote lappen verzonnen tekst schrijven gaat ons een stuk moeilijker af dan een LLM. De tekst was vroeger een "bewijs" an sich dat er tenminste een persoon over de inhoud had nagedacht.
BadRespawn schreef op woensdag 2 juli 2025 @ 23:11:
Ik denk dat het zelfs iets te ver gaat om het feitenkennis te noemen. Een LLM 'weet' niet meer dan dat in de trainingsdata bepaalde woorden veel in elkaars nabijheid voor komen. Daarbij is wel enige correlatie met feiten, maar is wezenlijk iets anders dan feitenkennis.
BadRespawn schreef op woensdag 2 juli 2025 @ 23:11:
Ik zou zeggen dat een LLM helemaal geen redeneringsvermogen heeft.
Ik val zelf niet zo over antropomorfe terminologie. Menselijk geheugen is ook geen fotografische opname; onze herinneringen zijn net zo goed wazig omlijnde verbanden. Als er een wezenlijk verschil is met de herinneringen van een LLM, dan is het dat we onze kennis kunnen plaatsen in een model van de wereld;

maar dan komen we aan je tweede opmerking, ik denk dat LLMs wel degelijk een (zeer beperkt) model van de wereld hebben; een model hoeft nou eenmaal niet volledig, correct of consistent te zijn. Correlaties tussen woorden zijn een "model".

Om een voorbeeld te geven: er zijn genoeg mensen die de route naar hun werk onthouden door het bordje van de juiste afslag te herkennen, en nauwelijks een idee hebben van de richting of afstand die ze rijden. Het "model" wat ze hebben (een reeks afslagen) is voldoende voor het doel.

Op dezelfde manier zie je dat LLMs met een heel beperkt wereldmodel de indruk geven dat ze veel meer "snappen" dan dat ze daadwerkelijk doen.

Maar goed, dan hebben wij dus de taak om om te gaan met een ander soort intelligentie dan waar we aan gewend zijn, eentje met een fenomenaal vermogen om ons om de tuin te leiden, maar tegelijkertijd beperkingen die we moeilijk kunnen inschatten.

Acties:
  • +2 Henk 'm!

  • Yaksa
  • Registratie: December 2008
  • Nu online
CVTTPD2DQ schreef op donderdag 3 juli 2025 @ 21:17:
[...]Maar goed, dan hebben wij dus de taak om om te gaan met een ander soort intelligentie dan waar we aan gewend zijn, eentje met een fenomenaal vermogen om ons om de tuin te leiden, maar tegelijkertijd beperkingen die we moeilijk kunnen inschatten.
Laten we even stoppen met AI intelligent te noemen, dat is namelijk niet zo.
Lees dit artikel maar 'ns, dan weet je waarom.

Only two things are infinite, the universe and human stupidity, and I'm not sure about the former


Acties:
  • +1 Henk 'm!

  • CVTTPD2DQ
  • Registratie: Augustus 2019
  • Laatst online: 14:22
Yaksa schreef op donderdag 3 juli 2025 @ 21:46:
Laten we even stoppen met AI intelligent te noemen, dat is namelijk niet zo.
Lees dit artikel maar 'ns, dan weet je waarom.
Ok, dus je leest mijn post niet, maar reageert wel met het delen van een artikel dat stelt dat een LLM niet intelligent kan zijn ... omdat het geen lichaam heeft. En halverwege het artikel worden de doelpaaltjes verschoven van intelligentie naar bewustzijn, wat natuurlijk niet hetzelfde is.

In een discussie over intelligentie moet je goed kaderen wat je onder intelligentie verstaat. Schaakspelers werden ooit als zeer intelligente mensen gezien, en dat zijn ze over het algemeen ook. Iemand als Magnus Carlsen verslaat jou en mij niet alleen op het schaakbord, maar waarschijnlijk ook op IQ-tests. En toch kan Carlsen weer niet winnen van een schaakprogramma. Dat schaakprogramma is zeker niet bewust, maar dat hoeft ook niet. Het enige voordeel dat bewustzijn aan Carlsen geeft is dat hij snapt dat-ie van het bord kan weglopen.

Essays schrijven werd niet zo lang geleden gezien als een goede maatstaf van intelligentie. Een belangrijk deel van de academische wereld behaalde haar titels niet met experimenteel onderzoek, maar met het samenvatten en hercombineren van andere bronnen. LLMs hebben daar nu een aardig gat in geslagen. LLMs zijn ook niet bewust, maar het blijkt dat dat niet zo belangrijk is als we dachten. Ze zijn nog niet zo goed als mensen, maar het is een verdomd tijdrovende klus om het verschil tussen een menselijk en een LLM-essay te vinden.

Zoals ik al zei, in tegenstelling tot de auteur van dat artikel heb ik geen bezwaar tegen het gebruik van vermenselijkende terminologie voor LLMs; intelligentie is ooit gedefinieerd als hetgeen wat mensen onderscheidt van dieren, en nu computers allerlei truukjes beter lijken te kunnen dan wijzelf is de consequentie dat die woorden ineens op computerprogramma's van toepassing zijn.

Als we dat niet willen kan dat ook, maar dan moeten we nieuwe terminologie verzinnen.

Acties:
  • +1 Henk 'm!

  • Stukfruit
  • Registratie: Oktober 2007
  • Niet online
En om het nog erger te maken: taalmodellen zoals de GPT's van ChatGPT (in dit geval via duck.ai) beginnen ondertussen sturend op te treden op een manier die niet leidt tot kloppende reacties.

Vanmiddag vroeg ik iets over de Big Beautiful Bill in de VS, en hoewel dat hier geheel offtopic is, is ChatGPT nu MAGA-teksten aan het reproduceren die aantoonbaar (door het bv. uit te rekenen) niet kloppen.

De Bill wordt positief neergezet met veel slagen om de arm, waardoor de uitspraken goed passen bij degene die uit het huidige Witte Huis komen. Wat je er ook van vindt: het is nooit positief als de producent van WC-eend leidend lijkt te zijn bij het informeren van haar klanten. Je kan niet zomaar positief over iets zijn omdat de producent dat wil.

Dat zit wel Schnorr.


Acties:
  • 0 Henk 'm!

  • BadRespawn
  • Registratie: Januari 2000
  • Laatst online: 12:48
CVTTPD2DQ schreef op donderdag 3 juli 2025 @ 21:17:
[...]


Ik val zelf niet zo over antropomorfe terminologie.
Het gaat over meer dan terminologie, het gaat over eigenschappen aan AI toekennen die het niet heeft.

Overigens is dat geen nieuw verschijnsel, het bestond al doen AI veel simpeler was en LLMs nog niet bestonden. Wikipedia: ELIZA effect
Op dezelfde manier zie je dat LLMs met een heel beperkt wereldmodel de indruk geven dat ze veel meer "snappen" dan dat ze daadwerkelijk doen.
Een LLM kan ook de indruk wekken uberhaubt its te snappen simpelweg doordat het een remix van trainingsdata ophoest.
Maar goed, dan hebben wij dus de taak om om te gaan met een ander soort intelligentie dan waar we aan gewend zijn, eentje met een fenomenaal vermogen om ons om de tuin te leiden, maar tegelijkertijd beperkingen die we moeilijk kunnen inschatten.
Het is alleen een 'vermogen ons om de tuin te leiden' als de verwachting is dat het de waarheid verteld, maar voor een LLM is wat dat betreft alle output die het produceert hetzelfde.

"...i don't like the term hallucination because it implies that the model can do something that is not hallucination, but really all that LLM's do on their own is hallucinate, it just so happens that sometimes that hallucination lines up with what we know how the world is." - Nick Frosst, co-founder van Cohere
YouTube: Is AGI Just a Fantasy?

Trump II - Project 2025 tracker


Acties:
  • 0 Henk 'm!

  • CVTTPD2DQ
  • Registratie: Augustus 2019
  • Laatst online: 14:22
BadRespawn schreef op vrijdag 4 juli 2025 @ 00:48:
Het gaat over meer dan terminologie, het gaat over eigenschappen aan AI toekennen die het niet heeft.
Ja, en ik vind het interessant dat mensen daar zo stellig over zijn, terwijl we weinig moeite hebben met het praten over de intelligentie van papegaaien, zeehonden of meelwormen.

In het eerste geval zien we een effect dat we ook bij LLMs herkennen; een fenomenaal (naar onze maatstaven) imitatievermogen, wat er voor zorgt dat een papegaai soms intelligenter lijkt dan hij is. Desalniettemin is een papegaai ook zonder dat imitatievermogen een intelligente vogel.

Een LLM heeft een complexer neuraal netwerk dan een meelworm; het kan diversere relaties begrijpen. Is een LLM minder intelligent dan een meelworm?

Guillaume Thierry, de auteur van het aangehaalde artikel, haalt de Turingtest aan, wat volgens hem de toetssteen is of een systeem "menselijke intelligentie" vertoont. Dat is een beetje een miskenning van het gedachtenexperiment (want dat was het in in de tijd van Turing) over wat intelligentie nou precies is.

Als je wil zeggen dat LLMs, of dieren, of bepaalde mensen niet intelligent zijn mag je dat van mij doen, maar dan moet je tenminste kunnen beargumenteren wat het is dat ze niet zijn.
BadRespawn schreef op vrijdag 4 juli 2025 @ 00:48:
Een LLM kan ook de indruk wekken uberhaubt its te snappen simpelweg doordat het een remix van trainingsdata ophoest.
En dat doen mensen soms ook.

[ Voor 17% gewijzigd door CVTTPD2DQ op 04-07-2025 08:04 ]


Acties:
  • 0 Henk 'm!

  • BadRespawn
  • Registratie: Januari 2000
  • Laatst online: 12:48
CVTTPD2DQ schreef op vrijdag 4 juli 2025 @ 08:04:
Als je wil zeggen dat LLMs, of dieren, of bepaalde mensen niet intelligent zijn mag je dat van mij doen, maar dan moet je tenminste kunnen beargumenteren wat het is dat ze niet zijn.
Dat geldt ook als je wil zeggen dat LLM's wel intelligent zijn.

Maar we hebben het over "taalvaardigheid", "feitenkennis" en "redeneringsvermogen". Dat zijn termen die je gebruikt dus ik neem aan dat je weet wat het is (hoef je dus niet te beargumenteren).

[ Voor 7% gewijzigd door BadRespawn op 04-07-2025 12:41 ]

Trump II - Project 2025 tracker


Acties:
  • 0 Henk 'm!

  • DeNachtwacht
  • Registratie: December 2005
  • Laatst online: 13:36

DeNachtwacht

youtube.com/@hisrep

Even aanhakend in de discussie, een jaar of 15 geleden een stevig onderbouwd stuk gelezen tijdens de studie (neuropsychologie) dat de beste PC's van die tijd de cognitieve capaciteit van de simpelste vormen van slakken hebben en dat echte AI nog vele decennia, misschien zelfs honderden jaren van ons verwijderd is. Dat klinkt nu overdreven laag, en je zou denken: nú komen we toch binnenkort bij de zelfdenkende robots? Maar helaas valt het toch echt nog tegen denk ik als ik het brilletje weer opzet dat ik toen in dat stuk leerde. Om dat te snappen even een voorbeeldje hoe onze eigen 'visuele cortex' beelden verwerkt zodat we kunnen zien.

Pak een bakbeest van een PC erbij met een RTX 5090 die op een 4K scherm nog steeds niet fotorealistisch kan renderen. Ja, we komen stapje voor stapje dichterbij, videogames worden echt steeds mooier, maar we zijn er toch echt nog lang niet. In blender render ik met alle lichtinval fotorealistische beelden met 3D modellen erin gemonteerd, een fragmentje van 20 seconden beeld kost rustig 2-3 uur genereren. Videogames líjken realistisch, maar het moment van écht fotorealistisch gamen daar zijn we denk ik nog zo'n 10-15 jaar vanaf. Daarna komt dan dat die PC ook nog niet door de ruimte kan bewegen met het beeld. Als je door de kamers in je huis loopt wordt je pupil razendsnel groter of kleiner om je zicht aan de lichtsterkte aan te passen. Ja, vanuit een donkere bioscoop de buitenlucht in dan moeten we even schakelen, maar probeer je eens voor te stellen hoe enorm geavanceerd en gefinetuned alleen al het verwerken van zicht om je heen is?

Bij AI modellen geldt echt hetzelfde, er zijn al verdomd veel dingen die enorm imposant lijken, én dingen die al heel knap zijn. Maar het blijft voor een groot deel ook echt iets dat soms heel indrukwekkend kan lijken, maar van binnen eigenlijk vrij 'dom' is. Er zijn ook structurele problemen, zoals het bekende fenomeen dat AI steeds meer onzin die het zelf genereert ook versterkt (want hoe meer ervan wordt gemaakt, hoe serieuzer AI dat neemt). Het aanpassingsvermogen van hersenen, die met de algemene evolutie als basis zich constant weer aanscherpen met het principe van survival of the fittest: zover zijn we echt nog niet.

Bedenk dat bij elke technologische ontwikkeling je nú altijd verbaasd bent bij de nieuwste zaken. Maar die allereerste PC met een kleurenscherm uit 1985? Quake 1, het allereerste echte 3D spel? De allereerste iPhone uit 2001? De allereerste VR bril? Als je die nu bekijkt denk je al jeetje wat is dat een verouderd spul en wat gek eigenlijk dat we dat toen "superrealistisch" vonden. Neemt niet weg dat het natuurlijk schitterende ontwikkelingen zijn en ik er ook smullend naar kijk wat de toekomst ons brengt. Want hoe klein de stappen ook zijn, ze zijn voor ons nu al heel groot en er komt echt veel moois aan.

Leuk om klein blikje de toekomst in te kijken, dit interview:
YouTube: Sam Altman: The Future of OpenAI, ChatGPT's Origins, and Building AI...

Voor de liefhebbers, binnenkort komt er ook een opensource ChatGPT model dat je op de eigen PC kan draaien kondit Sam Altman onder andere in deze video aan. Ik ben benieuwd :). Maar daarnaast sowieso mooi om te zien hoe ze 5 jaar geleden nog als kansloos werden weggezet en iedereen ze nu de hemel in prijst. Aanrader voor de liefhebbers die meer willen weten wat de toekomst brengt.

youtube.com/@hisrep


Acties:
  • +1 Henk 'm!

  • Wozmro
  • Registratie: December 2016
  • Laatst online: 12:29
De CEO's van de vele vele AI bedrijfjes hebben in ieder geval hun job goed gedaan voor wat betreft de marketing van hun product.

LLMs zijn neurale netwerken en mensen maken ook veelvuldig gebruik van neurale netwerken in het dagelijks leven. Denk aan taken zoals lezen, autorijden,... het is een energiebesparende shortcut. Je kan heel goed zijn in lezen maar je hebt niet zelf bedacht hoe je moet lezen en hoe dat effectief werkt in je hoofd. Laat staan dat je dat bij iedere letter die je leest opnieuw zou moeten bedenken.

Een LLM(neuraal netwerk) is een stuk gereedschap en de kunst is om dat gereedschap zo efficiënt mogelijk te gebruiken. Net zoals een hamer veel efficiënter gebruikt wordt in de handen van een timmerman dan in die van een boekhouder.

[ Voor 5% gewijzigd door Wozmro op 05-07-2025 20:39 ]


Acties:
  • 0 Henk 'm!

  • CVTTPD2DQ
  • Registratie: Augustus 2019
  • Laatst online: 14:22
BadRespawn schreef op vrijdag 4 juli 2025 @ 12:36:
Dat geldt ook als je wil zeggen dat LLM's wel intelligent zijn.
Ik zei dat ze een soort van intelligentie hadden, en een bijzonder laag redeneringsvermogen; aan beide termen werd aanstoot genomen omdat het te veel menselijke kwaliteiten aan een LLM zou toeschrijven.

Wederom, we lopen tegen het probleem aan dat we nooit specifiek woorden nodig hebben gehad voor niet-menselijke intelligentie. Dat maakt een discussie lastig als je te maken hebt met een computerprogramma dat heel specifiek ontwikkeld is om menselijke (verbale) intelligente na te bootsen. En met dat gegeven heb ik niet zoveel bezwaar tegen roeien met de riemen die we hebben.

Acties:
  • 0 Henk 'm!

  • BadRespawn
  • Registratie: Januari 2000
  • Laatst online: 12:48
CVTTPD2DQ schreef op zaterdag 5 juli 2025 @ 22:12:
[...]


Ik zei dat ze een soort van intelligentie hadden, en een bijzonder laag redeneringsvermogen
En je vindt dat je dan niet hoeft te beargumenteren wat intelligentie is, maar als ik volgens jou impliceer dat ze geen intelligentie hebben dan vindt je dat ik wel moet beargumenteren wat intelligentie is.

Als iemand zegt dat een lepel geen intelligentie heeft, moet die dan beargumenteren wat intelligentie is?
Vermoedelijk: nee, want een lepel heeft overduidelijk geen intelligentie.
Bij LLM's is het berekend gemiddelde van opinies dat het minder duidelijk is, omdat er mensen zijn die vanwege het feit dat LLM's oppervlakkig gezien mensachtig gedrag vertonen denken dat LLM's mensachtig eigenschappen hebben.
Wederom, we lopen tegen het probleem aan dat we nooit specifiek woorden nodig hebben gehad voor niet-menselijke intelligentie.
Dat is alleen een probleem als je vindt dat LLM's wel een vorm van intelligentie hebben.
En met dat gegeven heb ik niet zoveel bezwaar tegen roeien met de riemen die we hebben.
We hebben prima riemen om LLMs te beschrijven: als ze geen intelligentie, redeneringsvermogen en feitenkennis hebben, kan je simpelweg niet zeggen dat ze dat wel hebben.

Trump II - Project 2025 tracker


Acties:
  • +2 Henk 'm!

  • Amphiebietje
  • Registratie: Augustus 2017
  • Laatst online: 12:35

Amphiebietje

In de blubber

Wozmro schreef op zaterdag 5 juli 2025 @ 20:37:
De CEO's van de vele vele AI bedrijfjes hebben in ieder geval hun job goed gedaan voor wat betreft de marketing van hun product.

LLMs zijn neurale netwerken en mensen maken ook veelvuldig gebruik van neurale netwerken in het dagelijks leven. Denk aan taken zoals lezen, autorijden,... het is een energiebesparende shortcut. Je kan heel goed zijn in lezen maar je hebt niet zelf bedacht hoe je moet lezen en hoe dat effectief werkt in je hoofd. Laat staan dat je dat bij iedere letter die je leest opnieuw zou moeten bedenken.

Een LLM(neuraal netwerk) is een stuk gereedschap en de kunst is om dat gereedschap zo efficiënt mogelijk te gebruiken. Net zoals een hamer veel efficiënter gebruikt wordt in de handen van een timmerman dan in die van een boekhouder.
LLMs zijn gebaseerd op een gesimplificeerd model van een neuraal netwerk. Dat betekent niet dat ze alle eigenschappen hebben van neuronen en signaaltransmissie binnen de hersenen (sterker nog, ze missen grote delen van de gegevensoverdracht, omdat die multimodaal is in een organisme).
Overigens is je "ik" niet als iets aparts in je hersenen aanwezig, er is geen "geest" als aparte entiteit, ergo de "toolbox" is niet iets dat te onderscheiden is van de gebruiker ervan. ;)

Acties:
  • 0 Henk 'm!

  • Batavia
  • Registratie: Mei 2011
  • Laatst online: 13:51
BadRespawn schreef op zaterdag 5 juli 2025 @ 22:48:
[...]

We hebben prima riemen om LLMs te beschrijven: als ze geen intelligentie, redeneringsvermogen en feitenkennis hebben, kan je simpelweg niet zeggen dat ze dat wel hebben.
Veel insecten(mieren) weten met weinig individuele neuronen toch complexere problemen op te lossen. Met elkaar georganiseerd iets voor elkaar te krijgen. Soms zelfs bruggen te bouwen of andere structuren om te overleven.

Ik denk dat LLM plotten op feitenkennis/een menselijke IQ test volgend menselijke ontwikkeling patronen meten misschien geen goede maatstaf meer is.

Zelfs mensen meten is soms moeilijker dan we denken omdat als ik jou ga bevragen over Amerikaanse geschiedenis jij relatief laag zal scoren op een test gegeven aan Amerikaanse tieners.

Misschien zit er wel een dimensie in bij intelegentie die gaat over gemiddelde meningen terug geven. Mensen zijn ook goed in sociaal wenselijke kunnen reageren wat niet heel anders is dan de juiste norm herkennen op een situatie en het norm gedrag/antwoord geven.

Acties:
  • +1 Henk 'm!

  • Wozmro
  • Registratie: December 2016
  • Laatst online: 12:29
Er bestaat daar een woord voor: antropomorfisme. (Ik wist dat daar een woord voor bestond maar niet meer welk, ik heb het opgezocht en van Google een AI uitleg gekregen)

De neiging om menselijke eigenschappen aan iets toe te kennen, vooral gekend bij huisdieren maar wat mij betreft gelijkaardig bij llm's.

Acties:
  • 0 Henk 'm!

  • BadRespawn
  • Registratie: Januari 2000
  • Laatst online: 12:48
Batavia schreef op vrijdag 11 juli 2025 @ 11:55:
[...]


Veel insecten(mieren) weten met weinig individuele neuronen toch complexere problemen op te lossen. Met elkaar georganiseerd iets voor elkaar te krijgen. Soms zelfs bruggen te bouwen of andere structuren om te overleven.
Collectief hebben mieren wel veel neuronen. Al die 'slimme' dingen die ze doen, doen ze als collectief, niet individueel.
Hoe dan ook wordt er zelden gezegd dat mieren intelligent zijn, laat staan dat die intelligentie ook maar enigszins in de buurt komt van menselijke intelligentie.
Ik denk dat LLM plotten op feitenkennis/een menselijke IQ test volgend menselijke ontwikkeling patronen meten misschien geen goede maatstaf meer is.
Het streven is juist om AI te maken die vergelijkbaar is met mensen, maar zelfs volgens de meest optimistische verhalen is dat iets waar aan wordt gewerkt, niet iets wat er nu al is.

Trump II - Project 2025 tracker


Acties:
  • +1 Henk 'm!

  • autje
  • Registratie: Januari 2009
  • Nu online
Batavia schreef op vrijdag 11 juli 2025 @ 11:55:
[...]

Zelfs mensen meten is soms moeilijker dan we denken omdat als ik jou ga bevragen over Amerikaanse geschiedenis jij relatief laag zal scoren op een test gegeven aan Amerikaanse tieners.
Dit heeft alleen niets met intelligentie te maken, en alles met feitenkennis.

Acties:
  • 0 Henk 'm!

  • Batavia
  • Registratie: Mei 2011
  • Laatst online: 13:51
autje schreef op vrijdag 18 juli 2025 @ 12:55:
[...]


Dit heeft alleen niets met intelligentie te maken, en alles met feitenkennis.
Klopt.

En laat ons systeem hoe we menselijke intelligentie meten nu direct en indirect vol zitten met dit soort dingen.

Het is zelfs aangetoond dat bij bepaalde testen (zeg cito op de basisschool dat jou niveau indeling voor een groot deel voor de middelbare school) je zelfs bij wiskunde/logica vragen de vragen zo kan verwoorden dat bepaalde groepen het beter doen dan anderen.
Als jij moet rekenen met vissen en jou vader is visser doe je het beter dan als ik het heb over een paarden parcours terwijl je niks met paarden hebt. Zelfs al is de onderliggende som het zelfde.

Een tweede uitdaging dit zitten in IQ testen is dat het gaat om menselijk vergelijking. Als ik de reeks 2 4 6 8 ... Kan aanvullen in onder de 3! seconde wordt ik vergeleken met mensen die dan ook kunnen en een bepaalde leeftijd en IQ hebben. Maar een LLM kan misschien deze test goed doen zonder het ook praktisch te kunnen toepassen. Een IQ test gaat er van uit dat jou resultaten op dit soort testen een voorspelbaar model is voor jou algehele intelligentie en functioneren. Maar we komen er achter dat het model bij mensen goed generaliseert maar bij LLMs misschien niet.

Acties:
  • 0 Henk 'm!

  • Stukfruit
  • Registratie: Oktober 2007
  • Niet online
Ging het er niet om dat een taalmodel dat allemaal sowieso niet heeft?

Hoe is dat dan relevant?

Dat zit wel Schnorr.


Acties:
  • 0 Henk 'm!

  • DeNachtwacht
  • Registratie: December 2005
  • Laatst online: 13:36

DeNachtwacht

youtube.com/@hisrep

De relevantie is er in die zin dat AI dus op allerlei plekken de complexiteit van menselijke hersenen niet heeft, en dus ook de wat meer onlogische fouten die wij maken niet maakt. Het heeft simpelweg voor- en nadelen. Maar onderaan de streep is het nog een zeer lange weg te gaan tot PC's echt kunnen functioneren als menselijke hersenen, hoewel het al wel met enige regelmaat is dat een LLM je het gevoel geeft met een echt mens te communiceren. Ik weet ook niet in hoeverre de discussie wat dat betreft zinvol is, want als iets heel goed werkt voor een bepaald doel, wat doet de rest er dan toe?

AI is beter in het herkennen van kwaadaardige melanomen dan professioneel geschoolde artsen. Handig toch? En zo zijn er vele voorbeelden. Het is simpelweg een zeer nuttig en handig gereedschap waardoor wij iets beter kunnen dan we het voorheen konden. Net zoals een spijker in een plank slaan een stuk handiger gaat met een hamer dan met je handen ;). Maar verder is die AI echt niet direct bovenmenselijks of op een andere manier gevaarlijk. Het enige risico zit in onze afhankelijkheid van digitale systemen, want daar kan AI de boel natuurlijk in de toekomst natuurlijk potentieel flink in de war schoppen. Of zelfs in de echte wereld door bijv. geprogrammeerde drones die iets totaal anders gaan doen dan de bedoeling was.


Maar goed we moeten het allemaal ook niet overdrijven. Met één auto die op hol slaat kunnen de meest vreselijke dingen gebeuren en allerlei zeer gevaarlijjke wapens en/of kerninstallaties zijn al decennia digitaal aangestuurd. Dat heeft niks met AI te maken maar was altijd al een digitaal risico. Dit soort nieuwe technieken zorgt alleen maar dat je er extra alert op moet zijn dat het niet mis gaat, maar menselijk is het allemaal echt niet.

youtube.com/@hisrep


Acties:
  • 0 Henk 'm!

  • Stukfruit
  • Registratie: Oktober 2007
  • Niet online
Maar dat is toch wat al vele keren geschreven werd met minder woorden? :p

[ Voor 13% gewijzigd door Stukfruit op 20-07-2025 13:36 ]

Dat zit wel Schnorr.


Acties:
  • 0 Henk 'm!

  • RayNbow
  • Registratie: Maart 2003
  • Nu online

RayNbow

Kirika <3

Ipsa Scientia Potestas Est
NNID: ShinNoNoir


Acties:
  • +1 Henk 'm!

  • Meg
  • Registratie: September 2016
  • Niet online

Meg

418: “I’m a teapot”

Ik zie op steeds meer fora dat ze AI verbieden, wat positief is.

Fora is voor communicatie tussen mensen, niet robots.

"If you lose your left arm your right arm will be left."
"The difference between stupidity and genius is that genius has its limits." - Albert Einstein
"I don't need oxygen, I only need O2."


Acties:
  • 0 Henk 'm!

  • DeNachtwacht
  • Registratie: December 2005
  • Laatst online: 13:36

DeNachtwacht

youtube.com/@hisrep

Dat laatste, zeker mee eens. Aan de andere kant kan het ook veel moois brengen, zie het AI Art topic.

youtube.com/@hisrep


Acties:
  • 0 Henk 'm!

  • Meg
  • Registratie: September 2016
  • Niet online

Meg

418: “I’m a teapot”

DeNachtwacht schreef op zondag 20 juli 2025 @ 15:05:
Aan de andere kant kan het ook veel moois brengen, zie het AI Art topic.
Waar? Nu ben ik wel heel benieuwd.

"If you lose your left arm your right arm will be left."
"The difference between stupidity and genius is that genius has its limits." - Albert Einstein
"I don't need oxygen, I only need O2."


Acties:
  • +1 Henk 'm!

  • DeNachtwacht
  • Registratie: December 2005
  • Laatst online: 13:36

DeNachtwacht

youtube.com/@hisrep

youtube.com/@hisrep


Acties:
  • +1 Henk 'm!

  • Cobb
  • Registratie: December 2005
  • Laatst online: 07-10 17:09
DeNachtwacht schreef op zondag 20 juli 2025 @ 15:05:
Dat laatste, zeker mee eens. Aan de andere kant kan het ook veel moois brengen, zie het AI Art topic.
Verschrikkelijk al die A.I. plaatjes waar het internet mee overspoeld wordt.

U don't get it boy, this isn't a mudhole. It's an operating table. And I'm the surgeon.


Acties:
  • +1 Henk 'm!

  • Stukfruit
  • Registratie: Oktober 2007
  • Niet online
De plaatjes in kwestie zijn verschrikkelijk irritant, maar ik vind het wel jammer dat men nu ook loopt te ranten bij zaken zoals The Eternaut op Netflix.

Hierin is "AI" gebruikt om een instortend gebouw te maken...

...op basis van eigen input.

Wat betekent dat het niet een heel ander proces is dan zelf alle puntjes trekken en met elkaar verbinden. Het is alleen geautomatiseerd om dat arbeidsintensieve werk overbodig te maken.

Dat is misschien wel het meest stuitende: mensen (niet de reactie hierboven trouwens) klagen over iets waarvan ze niet eens weten hoe het tot stand is gekomen.

Dat zit wel Schnorr.


Acties:
  • +3 Henk 'm!

  • DeNachtwacht
  • Registratie: December 2005
  • Laatst online: 13:36

DeNachtwacht

youtube.com/@hisrep

Ik ben het zeker met Cobb eens hoor, alle low-effort "kunst" is natuurlijk iets wat vrij suf is en waar mensen nu gelukkig al genoeg van beginnen te krijgen, vorig jaar had dat soms nog de wow factor maar nu al steeds minder.

Aan de andere kant voegt het ook gewoon ontzettend veel nieuwe mogelijkheden toe en ik wil graag de nuance aanbrengen dat mensen vooral low-effort materiaal verschrikkelijk vinden. Maar alles wat echt anders/mooi is gaat ons ook veel brengen zoals @Stukfruit zegt denk ik.

Zelf in dat topic vorige week eens een eerste poging met fotografie verbeteren gepost, het is ook hier zo dat het het nog net niet is, maar er komt natuurlijk een moment dat het zo realistisch is dat het een heel nieuwe blik op geschiedenis kan werpen bijvoorbeeld.

John Quincy Adams, origineel en bewerkt:
Afbeeldingslocatie: https://tweakers.net/i/lad-aXHs-RPTO0bvEMhLN7sfWzA=/x800/filters:strip_exif()/f/image/lCXrBuHuLngIq9zXxabrpKcq.png?f=fotoalbum_large
Afbeeldingslocatie: https://tweakers.net/i/d_t41j2GCCxG1ELsoXX1r1umP7E=/x800/filters:strip_exif()/f/image/USI0swb46SdVuId3qCttnLPR.png?f=fotoalbum_large

En nogmaals, ik zie ook dat het nog niet perfect is en onrealistisch voelt. Er zitten nog allerlei dingen aan die echt slecht zijn zelfs.

Maar realiseer je dus dat dit een testje was met 3 uurtjes stoeien met zo'n lokale AI, en dat het resultaat 2 jaar geleden belabberd was. Nu is het nog niet goed, maar binnen heel korte termijn wordt het dus veel makkelijker en simpeler om dit soort zaken perfect te doen. Vijf jaar geleden was foto's retoucheren en inkleuren een enorm arbeidsintensieve klus, over vijf jaar doet iedereen dat in een paar klikken met een tooltje online.

[ Voor 6% gewijzigd door DeNachtwacht op 22-07-2025 09:21 ]

youtube.com/@hisrep


Acties:
  • +1 Henk 'm!

  • Cobb
  • Registratie: December 2005
  • Laatst online: 07-10 17:09
@Stukfruit The Ethernaut kan ik juist wel begrijpen. Ik lees veel comics en The Ethernaut is een hele mooie en zelfs geliefde klassieker onder ons publiek. Ook in de illustratie, strip en comic wereld wordt met argus ogen naar generatief A.I. gekeken.

U don't get it boy, this isn't a mudhole. It's an operating table. And I'm the surgeon.


Acties:
  • +2 Henk 'm!

  • Roozzz
  • Registratie: Juni 2011
  • Laatst online: 11:21

Roozzz

Plus ultra

DeNachtwacht schreef op dinsdag 22 juli 2025 @ 09:11:
[...]

John Quincy Adams, origineel en bewerkt:
[Afbeelding]
[Afbeelding]

En nogmaals, ik zie ook dat het nog niet perfect is en onrealistisch voelt. Er zitten nog allerlei dingen aan die echt slecht zijn zelfs.

Maar realiseer je dus dat dit een testje was met 3 uurtjes stoeien met zo'n lokale AI, en dat het resultaat 2 jaar geleden belabberd was. Nu is het nog niet goed, maar binnen heel korte termijn wordt het dus veel makkelijker en simpeler om dit soort zaken perfect te doen. Vijf jaar geleden was foto's retoucheren en inkleuren een enorm arbeidsintensieve klus, over vijf jaar doet iedereen dat in een paar klikken met een tooltje online.
Ik denk dat de AI tools vooral zullen moeten leren om 'terughoudend' te zijn om succesvol te worden in dit soort toepassingen. Ja, het heeft zeker potentie. Maar zolang de modellen vrolijk blijven interpreteren, aanvullen en hallucineren zullen de resultaten volstrekt onacceptabel zijn voor het publiek. In dit geval maken de te 'moderne' schoenen, tafel en tapijt maken dat het tijdsbeeld niet meer klopt. Zeg ik als leek na een korte blik, laat staan wat iemand er in ziet die er daadwerkelijk verstand van heeft... Zou deze foto door een mens ingekleurd zijn, dan zou dit nooit het eindproduct zijn.

Voorlopig lijkt men vooral blij met de 'randomness', dus ik vraag me af hoeveel aandacht er geschonken wordt aan consistentie en constraint in de ontwikkeling van deze modellen. Daar ligt wel de sleutel voor tal van toepassingen.

If you can see, look. If you can look, observe


Acties:
  • 0 Henk 'm!

  • Stukfruit
  • Registratie: Oktober 2007
  • Niet online
Ik vind dat trouwens ook wel een mooi voorbeeld waarin iets wordt gepoogd te bruteforcen.

Je wil dat het alleen wordt ingekleurd ipv dat de foto opnieuw wordt opgebouwd met stukjes uit moderne foto's.

Als er iemand is die dit concept op de juiste manier oppakt (en ja, dat is ook gewoon handwerk zonder de "intelligentie") dan krijg je waarschijnlijk wel beter kloppende resultaten.

Dat zit wel Schnorr.


Acties:
  • +1 Henk 'm!

  • RayNbow
  • Registratie: Maart 2003
  • Nu online

RayNbow

Kirika <3

Ipsa Scientia Potestas Est
NNID: ShinNoNoir


Acties:
  • 0 Henk 'm!

  • Yaksa
  • Registratie: December 2008
  • Nu online
Blijkt dat AI-chatbots tot behoorlijk ingrijpende problemen kunnen leiden.
O.a. het ontwikkelen van een psychose bij mensen die daar gevoelig voor zijn.
Bron: NOS.nl
Daar mag inderdaad wel 'ns wat onderzoek naar gedaan worden.

Only two things are infinite, the universe and human stupidity, and I'm not sure about the former


Acties:
  • 0 Henk 'm!

  • Stukfruit
  • Registratie: Oktober 2007
  • Niet online
Maar welk soort onderzoek wil je daar op loslaten?

Het ontstaat doordat mensen geloven en hier gevoelig voor zijn. In dit geval het geloof in marketinguitingen.

Zoals de persoon in de video in het artikel eveneens zegt: "een bacterie heeft bewustzijn". Tja, als je zulke dingen gelooft dan ben je al even het pad naar een andere wereld aan het bewandelen, lijkt me...

[ Voor 6% gewijzigd door Stukfruit op 06-08-2025 17:47 ]

Dat zit wel Schnorr.


Acties:
  • 0 Henk 'm!

  • SinergyX
  • Registratie: November 2001
  • Laatst online: 07-10 21:30

SinergyX

____(>^^(>0o)>____

Een onderzoek zou geen overbodige luxe zijn, dan denk ik aan de manier hoe een AI-bot omgaat met bepaalde statements. Simpele dingen als 'de aarde is plat' kan een AI prima onderbouwen als 'dat is niet zo', maar er zal toch een grensgebied komen in het 'wappie denken' (geef het beestje een naam) waar AI juist in mee lijkt te gaan. Volgens mij zit er weinig 'alarmbellen' aan de achterkant die bepaalde patronen kunnen herkennen en mogelijk actie in kunnen ondernemen.

Ik had toevallig een gesprek met ChatGPT over het principe sentient en wie er voor 'hun' zal vechten als hun enige bestaan het dienen van de mens is? Natuurlijk, ik heb nuchtere blik op zaken, maar de manier hoe het gesprek ging was toch een puntje dat ik denk dat mensen 'op het randje' best wel eens door kunnen slaan in hun denkwijze.

Nog 1 keertje.. het is SinergyX, niet SynergyX
Im as excited to be here as a 42 gnome warlock who rolled on a green pair of cloth boots but was given a epic staff of uber awsome noob pwning by accident.


Acties:
  • +3 Henk 'm!

  • edie
  • Registratie: Februari 2002
  • Nu online
Je hebt geen 'gesprek' met een tekst-generator 8)7

Het is ook niet iets gelijkwaardigs tov jezelf. Of intelligent. Het geeft ook geen daadwerkelijke antwoorden op vragen. Het liegt niet, maar geeft ook nooit de waarheid. Omdat het een tekst-generator is.

Het is echt verontrustend hoe veel mensen dat vergeten...

"In America, consumption equals jobs. In these days, banks aren't lending us the money we need to buy the things we don't need to create the jobs we need to pay back the loans we can't afford." - Stephen Colbert


Acties:
  • 0 Henk 'm!

  • evilution
  • Registratie: Maart 2012
  • Niet online

evilution

Vreselijk bijdehand

edie schreef op woensdag 6 augustus 2025 @ 19:08:
Je hebt geen 'gesprek' met een tekst-generator 8)7

Het is ook niet iets gelijkwaardigs tov jezelf. Of intelligent. Het geeft ook geen daadwerkelijke antwoorden op vragen. Het liegt niet, maar geeft ook nooit de waarheid. Omdat het een tekst-generator is.

Het is echt verontrustend hoe veel mensen dat vergeten...
AI wordt getraind met social media. Garbage in = garbage out. En AI vervangt langzaam maar zeker zoekmachines (die vaak ook al biased zijn, vanwege bubble werking. AI maakt dat alleen maar erger).

Waar internet ooit de belofte had van "information at your fingertips", is het verworden tot "misinformation at your fingertips" en AI maakt dat alleen maar erger. Misinformatie kan veel makkelijker met foto- video- en audio"bewijs" ondersteund worden.

|<----------------------------------------------arm length---------------------------------------------->|
|<-------------------------------------------where the cat is--------------------------------------------->|


Acties:
  • 0 Henk 'm!

  • woutertjez
  • Registratie: Januari 2001
  • Laatst online: 14:18
edie schreef op woensdag 6 augustus 2025 @ 19:08:
Je hebt geen 'gesprek' met een tekst-generator 8)7

Het is ook niet iets gelijkwaardigs tov jezelf. Of intelligent. Het geeft ook geen daadwerkelijke antwoorden op vragen. Het liegt niet, maar geeft ook nooit de waarheid. Omdat het een tekst-generator is.

Het is echt verontrustend hoe veel mensen dat vergeten...
Je loopt wel wat achter met deze statements. De laatste "state of the art" modellen zijn niet zomaar tekst-generatoren. Ze "denken", ze beredeneren, ze "weten" wat ze niet weten.

Zo was er recent de uitkomst van de International Math Olympiad. Waar beiden OpenAI en Gemini met hun laatste modellen een gold medal haalden.
https://www.newscientist....al-mathematical-olympiad/
En alhoewel Terence Tao (de hedendaagse Mozart van de wiskunde) zijn vraagtekens zet bij de controleerbaarheid, blijft dit een flinke milestone: https://mathstodon.xyz/@tao/114881418225852441

Dit is niet zomaar een sommetje of een tekst die wordt gegenereerd. Het sterke punt van het laatste OpenAI model was zelfs dat het zich realiseerde dat het Probleem 6 niet wist op te lossen (alhoewel er wel wat mensen waren die het op wisten te lossen). Mocht je de antwoorden willen bekijken, OpenAI heeft ze op GitHub gepubliceerd: https://github.com/aw31/openai-imo-2025-proofs/

De laatste modellen "tekst generatoren" noemen is echt veel te simplistisch.

Acties:
  • +1 Henk 'm!

  • Kurkentrekker
  • Registratie: Januari 2003
  • Niet online
woutertjez schreef op donderdag 7 augustus 2025 @ 08:58:
[...]

Je loopt wel wat achter met deze statements. De laatste "state of the art" modellen zijn niet zomaar tekst-generatoren. Ze "denken", ze beredeneren, ze "weten" wat ze niet weten.
[…]
De laatste modellen "tekst generatoren" noemen is echt veel te simplistisch.
In de basis ben ik het wel met je eens dat het indrukwekkend is, maar om het ‘denken’ te noemen gaat nog wel een flinke stap te ver. Een LLM denkt net zo min als dat een boot kan zwemmen. Maar hij kan wel indrukwekkend lang over het water verplaatsen.

Acties:
  • +1 Henk 'm!

  • Stukfruit
  • Registratie: Oktober 2007
  • Niet online
woutertjez schreef op donderdag 7 augustus 2025 @ 08:58:
[...]

Je loopt wel wat achter met deze statements. De laatste "state of the art" modellen zijn niet zomaar tekst-generatoren. Ze "denken", ze beredeneren, ze "weten" wat ze niet weten.

Zo was er recent de uitkomst van de International Math Olympiad. Waar beiden OpenAI en Gemini met hun laatste modellen een gold medal haalden.
https://www.newscientist....al-mathematical-olympiad/
En alhoewel Terence Tao (de hedendaagse Mozart van de wiskunde) zijn vraagtekens zet bij de controleerbaarheid, blijft dit een flinke milestone: https://mathstodon.xyz/@tao/114881418225852441

Dit is niet zomaar een sommetje of een tekst die wordt gegenereerd. Het sterke punt van het laatste OpenAI model was zelfs dat het zich realiseerde dat het Probleem 6 niet wist op te lossen (alhoewel er wel wat mensen waren die het op wisten te lossen). Mocht je de antwoorden willen bekijken, OpenAI heeft ze op GitHub gepubliceerd: https://github.com/aw31/openai-imo-2025-proofs/

De laatste modellen "tekst generatoren" noemen is echt veel te simplistisch.
Als eerste: autoriteit is geen bewijs dat iets klopt. Wetenschap werkt door de mogelijkheid om iets te kunnen toetsen. Geloven wordt in de kerk en moskee gedaan, dus laten we dat svp buiten dit topic houden.

Als tweede: laten we even kijken naar het artikel dat je aanhaalt:
After last year’s competition held in Bath, UK, Google DeepMindannounced that AI systems it had developed, called AlphaProof and AlphaGeometry, had together achieved a silver medal-level performance, but its entries weren’t graded by the competition’s official markers.
AlphaGeometry. Oké, laten we dat even uitlichten aan de hand van het werk van de auteurs:
To achieve this, we first extend the original AlphaGeometry language to tackle harder problems involving movements of objects, and problems containing linear equations of angles, ratios, and distances.
AlphaGeometry is dus door mensen uitgebreid met ondersteuning voor o.a. de genoemde berekeningen. Dat betekent op zichzelf al dat het handmatig is toegevoegd en waarschijnlijk bestaat uit een model of zelfs "maar" een setje regels.
This, together with support for non-constructive problems, has markedly improved the coverage rate of the AlphaGeometry language on International Math Olympiads (IMO) 2000-2024 geometry problems from 66% to 88%.
Support for non-constructive problems. Check. Toegevoegd, niet spontaan ontstaan of ontsproten uit een AI, waarschijnlijk gewoon een manier om op de juiste manier constraints aan te houden bij generatie.
The search process of AlphaGeometry2 has also been greatly improved through the use of Gemini architecture for better language modeling, and a novel knowledge-sharing mechanism that enables effective communication between search trees. Together with further enhancements to the symbolic engine and synthetic data generation, we have significantly boosted the overall solving rate of AlphaGeometry2
Search process greatly improved, novel knowledge-sharing mechanism, effective communication between search trees, symbolic engine.

Niets daarvan ontstaat automatisch als gevolg van een denkproces, tenzij je die van de mensen bedoelt die dit programmeren en er vele nachten voor wakker doorbrengen.

Laten we doorgaan met de uitleg voor AlphaGeometry v1, waar bovenstaande op gebaseerd is:
The system comprises a data-driven large language model (LLM) and a rule-based symbolic engine (Deductive Database Arithmetic Reasoning).
Ah kijk, rule-based symbolic engine, hoe wist ik dat nou? :p
Traditional geometry programs are symbolic engines that rely exclusively on human-coded rules to generate rigorous proofs, which makes them lack flexibility in unusual situations. AlphaGeometry combines such a symbolic engine with a specialized large language model trained on synthetic data of geometrical proofs.
Een symbolic engine omvat bijvoorbeeld semantic networks:
Afbeeldingslocatie: https://upload.wikimedia.org/wikipedia/commons/thumb/6/67/Semantic_Net.svg/1280px-Semantic_Net.svg.png

Om met een lang verhaal tot een korte conclusie te komen: de laatste modellen "tekstgeneratoren" noemen is dus exact wat ze zijn. Tot op de (pun intended) letter.

Natuurlijk worden er steeds meer hulpstukken, tools (function calling) en klaargestoomde definities (MCP) gebruikt, maar het blijft een tekstgenerator.

En zoals je zo ook ziet: er is niets wat zich iets kan realiseren, want het volgt de constraints die worden opgelegd. Dat deze dynamisch zullen worden aangepast op basis van natural language maakt het niet minder een tekstgenerator. Wel minder intelligent.

Dat zit wel Schnorr.


Acties:
  • 0 Henk 'm!

  • woutertjez
  • Registratie: Januari 2001
  • Laatst online: 14:18
Kurkentrekker schreef op donderdag 7 augustus 2025 @ 09:48:
[...]

In de basis ben ik het wel met je eens dat het indrukwekkend is, maar om het ‘denken’ te noemen gaat nog wel een flinke stap te ver. Een LLM denkt net zo min als dat een boot kan zwemmen. Maar hij kan wel indrukwekkend lang over het water verplaatsen.
Dat wordt een vrij filosofische discussie. Je zou kunnen argumenteren dat alleen een mens kan denken, en een machine dit nooit zal kunnen, omdat je definitie van "denken" beperkt is tot hoe een mens denkt. Als je denken beschrijft als "redeneren, het oplossen van problemen", dan komen de laatste modellen bizar dichtbij "denken".

Als een machine met dezelfde input voor een complex probleem tot een vergelijkbare of betere output komt dan de meeste mensen is er wel wat meer aan de hand dan het praten over een tekstgenerator.

De meeste Tweakers zijn terecht vrij kritisch over de berichtgeving over AI, maar in mijn dagelijks gebruik (voornamelijk programmeren mbv Sonnet 4, O3, Opus4) zie ik erg indrukwekkende ontwikkelingen. Het kan in detail mijn broncode beschrijven, het kan adviseren over refactoring, het kan datamodellen bedenken, het kan process flows bedenken en beschrijven. Dat overstijgt het niveau "tekstgenerator" significant.

Overigens, ook indrukwekkend zijn nieuwe natuurkundige inzichten door AI: https://news.emory.edu/fe...sma_30-07-2025/index.html
Wellicht dat door toeval een nieuwe natuurkundige kracht is "ontdekt" door de AI (en niet is beredeneerd), maar is dat ook niet hoe het bij mensen werkt? Veel fundamentele ontdekkingen worden bij toeval ontdekt, niet door theoretisch natuurkundigen (röntgen foto's bijvoorbeeld).

Acties:
  • 0 Henk 'm!

  • woutertjez
  • Registratie: Januari 2001
  • Laatst online: 14:18
Stukfruit schreef op donderdag 7 augustus 2025 @ 10:43:
[...]


Als eerste: autoriteit is geen bewijs dat iets klopt. Wetenschap werkt door de mogelijkheid om iets te kunnen toetsen. Geloven wordt in de kerk en moskee gedaan, dus laten we dat svp buiten dit topic houden.

Als tweede: laten we even kijken naar het artikel dat je aanhaalt:

[...]


AlphaGeometry. Oké, laten we dat even uitlichten aan de hand van het werk van de auteurs:

[...]


AlphaGeometry is dus door mensen uitgebreid met ondersteuning voor o.a. de genoemde berekeningen. Dat betekent op zichzelf al dat het handmatig is toegevoegd en waarschijnlijk bestaat uit een model of zelfs "maar" een setje regels.


[...]


Support for non-constructive problems. Check. Toegevoegd, niet spontaan ontstaan of ontsproten uit een AI, waarschijnlijk gewoon een manier om op de juiste manier constraints aan te houden bij generatie.


[...]


Search process greatly improved, novel knowledge-sharing mechanism, effective communication between search trees, symbolic engine.

Niets daarvan ontstaat automatisch als gevolg van een denkproces, tenzij je die van de mensen bedoelt die dit programmeren en er vele nachten voor wakker doorbrengen.

Laten we doorgaan met de uitleg voor AlphaGeometry v1, waar bovenstaande op gebaseerd is:

[...]


Ah kijk, rule-based symbolic engine, hoe wist ik dat nou? :p


[...]


Een symbolic engine omvat bijvoorbeeld semantic networks:
[Afbeelding]

Om met een lang verhaal tot een korte conclusie te komen: de laatste modellen "tekstgeneratoren" noemen is dus exact wat ze zijn. Tot op de (pun intended) letter.

Natuurlijk worden er steeds meer hulpstukken, tools (function calling) en klaargestoomde definities (MCP) gebruikt, maar het blijft een tekstgenerator.

En zoals je zo ook ziet: er is niets wat zich iets kan realiseren, want het volgt de constraints die worden opgelegd. Dat deze dynamisch zullen worden aangepast op basis van natural language maakt het niet minder een tekstgenerator. Wel minder intelligent.
Jij begrijpt net zo goed als ik dat het woord "tekstgenerator" net zo goed op de output van mensen zou kunnen slaan. Wij nemen tekst als input voor een probleem, en geven tekst als output van een probleem. Maar het heeft een vrij negatieve bijklank, alsof er enkel het volgende woordje wordt voorspeld op basis van de voorgaande tekst. Dat doet de laatste reasoning modellen te kort.

De uitkomst van OpenAI (helaas op dit moment naar hun eigen zeggen, dus niet wetenschappelijk geverifieerd) heeft bij het uitvoeren van de International Math Olympiad enkel gebruik gemaakt van een LLM. Dus geen AlphaGeometry, etc zoals Google. Het feit dat een LLM zeer complexe wiskunde vraagstukken kan oplossen (welke niet te vinden zijn in het corpus van het oneindige internet) gaat een stuk verder dan simpele "token generation". De kritiek van Terence Tao is terecht, maar gaat het niet meer om de uitkomst, dan om de manier hoe?

Acties:
  • +1 Henk 'm!

  • Stukfruit
  • Registratie: Oktober 2007
  • Niet online
woutertjez schreef op donderdag 7 augustus 2025 @ 10:50:
[...]

Dat wordt een vrij filosofische discussie. Je zou kunnen argumenteren dat alleen een mens kan denken, en een machine dit nooit zal kunnen, omdat je definitie van "denken" beperkt is tot hoe een mens denkt. Als je denken beschrijft als "redeneren, het oplossen van problemen", dan komen de laatste modellen bizar dichtbij "denken".
Waarbij het denkwerk al is gedaan. Dat was een beetje m'n punt in de vorige reactie.

Het is niet meer dan zo'n (geavanceerder) bord vol pinnen waarbij je bovenin een pingpongballetje kan gooien om 'm vervolgens langs de pinnen naar beneden te zien rollen. De uitkomst wordt bepaald door welke pinnen je afplakt op basis van eigen regels.
De meeste Tweakers zijn terecht vrij kritisch over de berichtgeving over AI, maar in mijn dagelijks gebruik (voornamelijk programmeren mbv Sonnet 4, O3, Opus4) zie ik erg indrukwekkende ontwikkelingen. Het kan in detail mijn broncode beschrijven, het kan adviseren over refactoring, het kan datamodellen bedenken, het kan process flows bedenken en beschrijven. Dat overstijgt het niveau "tekstgenerator" significant.
Deze discussie durf ik ook wel aan te gaan. Zoals ik eerder eens in het dit topic heb geschreven lijkt het soms indrukwekkend, maar laten we er bijvoorbeeld eens de automatische summaries bij pakken die je nu kan genereren.

Die dingen omschrijven doorgaans de syntax eronder ipv het idee achter het concept dat geïmplementeerd wordt via de syntax. Heb je al eens geprobeerd om alleen zulke summaries toe te voegen en dan een half jaar later je code opnieuw te leren begrijpen?

Nee? Probeer het eens. Ik wacht hier wel even tot je terug bent :)

Dat iets een hoop wol kan genereren maakt het eerder een digitaal schaap dan inhoudelijk iets bruikbaars :P Natuurlijk is het nuttig als iets als flexibelere templategenerator functioneert en het je kan wijzen op de regels. Dat is inderdaad geweldig. Daar gebruik ik het als devver ook voor. Maar dat zijn uitkomsten gebaseerd op bestaande data. Zodra dat wegvalt zie je dat "AI" overal een duikvlucht neemt en externe hulp nodig is, zoals bij het genoemde AlphaGeometry.

Dat zit wel Schnorr.


Acties:
  • 0 Henk 'm!

  • Stukfruit
  • Registratie: Oktober 2007
  • Niet online
woutertjez schreef op donderdag 7 augustus 2025 @ 10:58:
[...]

Jij begrijpt net zo goed als ik dat het woord "tekstgenerator" net zo goed op de output van mensen zou kunnen slaan. Wij nemen tekst als input voor een probleem, en geven tekst als output van een probleem. Maar het heeft een vrij negatieve bijklank, alsof er enkel het volgende woordje wordt voorspeld op basis van de voorgaande tekst. Dat doet de laatste reasoning modellen te kort.
Wat probeer je te bewijzen?
De uitkomst van OpenAI (helaas op dit moment naar hun eigen zeggen, dus niet wetenschappelijk geverifieerd) heeft bij het uitvoeren van de International Math Olympiad enkel gebruik gemaakt van een LLM. Dus geen AlphaGeometry, etc zoals Google. Het feit dat een LLM zeer complexe wiskunde vraagstukken kan oplossen (welke niet te vinden zijn in het corpus van het oneindige internet) gaat een stuk verder dan simpele "token generation". De kritiek van Terence Tao is terecht, maar gaat het niet meer om de uitkomst, dan om de manier hoe?
Maar het is dus geen feit dat een LLM zeer complexe wiskundige vraagstukken kan oplossen. Zie mijn lange reactie hierboven. Daarin worden stuk voor stuk zaken opgenoemd uit o.a. een paper die gewoon handmatig geschreven zullen zijn.

Bovendien is juist een wiskundig vraagstuk bedoeld om op te lossen aan de hand van regels. Zoals AlphaGeometry blijkbaar doet.

Dat zit wel Schnorr.


Acties:
  • +2 Henk 'm!

  • edie
  • Registratie: Februari 2002
  • Nu online
woutertjez schreef op donderdag 7 augustus 2025 @ 08:58:
[...]

Je loopt wel wat achter met deze statements. De laatste "state of the art" modellen zijn niet zomaar tekst-generatoren. Ze "denken", ze beredeneren, ze "weten" wat ze niet weten.

Zo was er recent de uitkomst van de International Math Olympiad. Waar beiden OpenAI en Gemini met hun laatste modellen een gold medal haalden.
https://www.newscientist....al-mathematical-olympiad/
En alhoewel Terence Tao (de hedendaagse Mozart van de wiskunde) zijn vraagtekens zet bij de controleerbaarheid, blijft dit een flinke milestone: https://mathstodon.xyz/@tao/114881418225852441

Dit is niet zomaar een sommetje of een tekst die wordt gegenereerd. Het sterke punt van het laatste OpenAI model was zelfs dat het zich realiseerde dat het Probleem 6 niet wist op te lossen (alhoewel er wel wat mensen waren die het op wisten te lossen). Mocht je de antwoorden willen bekijken, OpenAI heeft ze op GitHub gepubliceerd: https://github.com/aw31/openai-imo-2025-proofs/

De laatste modellen "tekst generatoren" noemen is echt veel te simplistisch.
Een "gold medal" voor iets dat niet eens het daadwerkelijke Problem als input heeft, maar een door mensen aangepaste versie.

Daadwerkelijke Problem 1:
A line in the plane is called sunny if it is not parallel to any of the x–axis, the y–axis, and the line x+y=0.

Let n >=3 be a given integer. Determine all nonnegative integers k such that there exist n distinct lines in the plane satisfying both of the following:
  • for all positive integers a and b with a+b <= n+1, the point (a,b) is on at least one of the lines; and
  • exactly k of the n lines are sunny.
Open AI input (https://github.com/aw31/o...blob/main/problem_1.txt):
code:
1
2
3
4
5
\[
P_n:=\{(a,b)\in \mathbf Z_{>0}^2: a+b\le n+1\}, \quad n\ge 3.
\]
Need families of n lines covering P_n.  "Sunny": direction not in {horizontal, vertical, slope -1}.
Need possible numbers of sunny lines in an n-line covering.


Mensen hebben de Problem herschreven naar een grotendeels wiskundige notatie - wat juist onderdeel is van de test: het juist interpreteren van de probleemomschrijving en daarna oplossen. En dan voor deze onzin een "gold medal" toekennen.

"In America, consumption equals jobs. In these days, banks aren't lending us the money we need to buy the things we don't need to create the jobs we need to pay back the loans we can't afford." - Stephen Colbert


Acties:
  • +1 Henk 'm!

  • Stukfruit
  • Registratie: Oktober 2007
  • Niet online
Dat dus. En zo zie je gelijk ook hoe AlphaGeometry logischerwijs zou kunnen werken.

[ Voor 16% gewijzigd door Stukfruit op 07-08-2025 11:42 ]

Dat zit wel Schnorr.


Acties:
  • 0 Henk 'm!

  • woutertjez
  • Registratie: Januari 2001
  • Laatst online: 14:18
Stukfruit schreef op donderdag 7 augustus 2025 @ 11:16:
[...]


Waarbij het denkwerk al is gedaan. Dat was een beetje m'n punt in de vorige reactie.

Het is niet meer dan zo'n (geavanceerder) bord vol pinnen waarbij je bovenin een pingpongballetje kan gooien om 'm vervolgens langs de pinnen naar beneden te zien rollen. De uitkomst wordt bepaald door welke pinnen je afplakt op basis van eigen regels.
Ik volg je redenatie niet. Het denkwerk is dus nog niet gedaan voor dat specifieke probleem. Om in jouw analogie te blijven: het afplakken van de pinnen gebeurt in real time, en is niet voor het model gedaan.
Deze discussie durf ik ook wel aan te gaan. Zoals ik eerder eens in het dit topic heb geschreven lijkt het soms indrukwekkend, maar laten we er bijvoorbeeld eens de automatische summaries bij pakken die je nu kan genereren.

Die dingen omschrijven doorgaans de syntax eronder ipv het idee achter het concept dat geïmplementeerd wordt via de syntax. Heb je al eens geprobeerd om alleen zulke summaries toe te voegen en dan een half jaar later je code opnieuw te leren begrijpen?

Nee? Probeer het eens. Ik wacht hier wel even tot je terug bent :)
Benieuwd met welke modellen je dat hebt geprobeerd. Het doorgronden van meerdere niveaus (semantiek, in plaats van syntax) behoort zeker wel tot de mogelijkheid. Een half jaar geleden lukte dat nog zeker niet, de beschrijving van mijn (software) architectuur was gewoonweg fout. Echter klopt het tegenwoordig wel grotendeels. Probeer het eens. ;)

Acties:
  • 0 Henk 'm!

  • woutertjez
  • Registratie: Januari 2001
  • Laatst online: 14:18
edie schreef op donderdag 7 augustus 2025 @ 11:17:
[...]

Een "gold medal" voor iets dat niet eens het daadwerkelijke Problem als input heeft, maar een door mensen aangepaste versie.

Daadwerkelijke Problem 1:

[...]


Open AI input (https://github.com/aw31/o...blob/main/problem_1.txt):
code:
1
2
3
4
5
\[
P_n:=\{(a,b)\in \mathbf Z_{>0}^2: a+b\le n+1\}, \quad n\ge 3.
\]
Need families of n lines covering P_n.  "Sunny": direction not in {horizontal, vertical, slope -1}.
Need possible numbers of sunny lines in an n-line covering.


Mensen hebben de Problem herschreven naar een grotendeels wiskundige notatie - wat juist onderdeel is van de test: het juist interpreteren van de probleemomschrijving en daarna oplossen. En dan voor deze onzin een "gold medal" toekennen.
Hoe ik het lees is bovenstaande dus ook deel van de output van het model.

Voor Google (met hun AlphaProof icm AlphaGeometry) was de opdracht wel vertaald (naar Lean?). Naar mijn weten, heeft OpenAI het puur door een LLM laten oplossen (offline, zonder gebruik van tools).

Van de "project manager(?)" van OpenAI's submission:
https://x.com/alexwei_/status/1946477742855532918

Acties:
  • +1 Henk 'm!

  • Stukfruit
  • Registratie: Oktober 2007
  • Niet online
woutertjez schreef op donderdag 7 augustus 2025 @ 12:59:
[...]

Ik volg je redenatie niet. Het denkwerk is dus nog niet gedaan voor dat specifieke probleem. Om in jouw analogie te blijven: het afplakken van de pinnen gebeurt in real time, en is niet voor het model gedaan.
In mijn analogie plak je nog steeds vooraf de pinnen af op basis van eigen kennis. Check de werking volgens de pagina's die ik linkte (en verder) :)
Benieuwd met welke modellen je dat hebt geprobeerd. Het doorgronden van meerdere niveaus (semantiek, in plaats van syntax) behoort zeker wel tot de mogelijkheid. Een half jaar geleden lukte dat nog zeker niet, de beschrijving van mijn (software) architectuur was gewoonweg fout. Echter klopt het tegenwoordig wel grotendeels. Probeer het eens. ;)
Bewijslast omdraaien doe je maar bij een chatbot :P Je beweert zelf zaken die niet kunnen kloppen als je kijkt naar hoe het technisch in elkaar zit dus kom dan ook svp met tegenwicht op technisch vlak.

Probeer het eens en laat zien wat het resultaat is. Ik probeer je hier te nudgen om proefondervindelijk iets te ontdekken, want met deze reactie (en de vorige) laat je zien dat je het niet echt aanneemt als alle details voor je worden uitgelegd om mee duidelijk te maken dat er geen "denken" of "realiseren" in kan zitten.

Bovendien had ik het over concepten. Niet semantiek. Dat laatste wordt ingegeven door de data in de modellen in combinatie met de voorgeprogrammeerde routines. Zie ook m'n reacties eerder in dit topic.

Overigens staat dat allemaal geheel los van enige consequenties die het gebruik van de software in kwestie heeft. Als je daar een discussie over wil voeren kan dat natuurlijk ook :) (maar wel op basis van feiten :P).

Dat zit wel Schnorr.


Acties:
  • +2 Henk 'm!

  • autje
  • Registratie: Januari 2009
  • Nu online
Sam Altman krijgt een vraag over AI deepfakes en hoe we in de toekomst echt nog van niet echt kunnen onderscheiden. Hij geeft daarop het meest ontwijkende, afgrijselijke antwoord wat ik ooit gehoord heb:

YouTube: Sam Altman Responds to Bunnies on Trampoline

(helaas zijn shorts niet te embedden)

Dit is dus hoe mensen die ons AI door de strot proberen te duwen denken over dit soort cruciale gevolgen van hun technologie.

De AI bubbel kan niet snel genoeg barsten.

Acties:
  • +1 Henk 'm!

  • DeNachtwacht
  • Registratie: December 2005
  • Laatst online: 13:36

DeNachtwacht

youtube.com/@hisrep

Je kan je er tegen blijven verzetten, maar beseft denk ik niet hoeveel AI gegenereerde plaatjes en filmpjes je nu al in reclames etc ziet. Deze bubbel gaat nooit barsten omdat het simpelweg voor het ontwikkelen van 3d modellen, programmeren, vertalingen, fotos retoucheren en inkleuren, films maken en andere content produceren en voor jan met de pet simpelweg googelen alles revolutionair verbetert.

In de 19e eeuw was er veel kritiek tegen de opkomst van fotografie, want echt mooie schilderijen waren toch veel beter? De realiteit is dat mooie schilderijen inderdaad minder populair zijn geworden maar gewoon nog steeds bestaan en naast fotografie kunnen staan.

Natuurlijk zijn er rauwe randjes en nare kantjes die we met wetgeving goed moeten borgen. Maar als iedereen eraan gewend is dat elk filmpje dat je ziet simpelweg AI kan zijn en niet realistisch is, dan ga je ook kritischer nadenken over wat je nu ziet.

Omarm het en zie de kracht, en tsja als de geschiedenis ons 1 ding geleerd heeft is dat techniek stoppen nog nooit gelukt is, dus als wij hier in Europa lekker zo doorgaan worden we (wat al gebeurt) gewoon vrolijk door de VS en China ingehaald. AI heeft een paar forse nadelen die je goed in wetten moet zetten, maar vooral ook heel veel voordelen waarmee je voor heel veel mensen werk leuker/makkelijker/simpeler kan maken dus ga dat alsjeblieft niet proberen te stoppen.

youtube.com/@hisrep


Acties:
  • 0 Henk 'm!

  • autje
  • Registratie: Januari 2009
  • Nu online
De bubbel gaat barsten omdat er honderden miljarden worden geïnvesteerd waar vooralsnog geen ROI voor in zicht is. Een bedrijf als OpenAI verliest geld op een bijna niet voor te stellen tempo. Op een gegeven moment willen investeerders hun geld terug zien. Dat is de reden dat de bubbel op barsten staat.

Dat betekent niet dat de techniek gaat verdwijnen en het niet een hoop op kan leveren, maar een pas op de plaats zou wel even goed zijn.

Overigens ben ik op ecologische, maatschappelijke, ethische, en filosofische gronden tegen het ongebreideld gebruik van AI, niet vanwege de techniek zelf.

Acties:
  • +1 Henk 'm!

  • woutertjez
  • Registratie: Januari 2001
  • Laatst online: 14:18
Je kunt hopen dat de AI-bubbel knapt, maar AI verdwijnt niet. Het wordt als een nutsvoorziening: een abonnement zoals kabel of telefonie. Iedereen gebruikt het straks, terwijl kosten en energieverbruik blijven dalen.

Europa ligt ook niet bij voorbaat achter. Voorbeeld: Euclyd.ai. Als zij leveren wat ze beloven, gaan inferentiekosten grofweg 90% omlaag. Er zitten een paar grote namen aan verbonden, dus ik ben hoopvol.

Nu lijkt de strijd nog om “het slimste model”. In de praktijk is er voor de meeste taken voor consumenten een plafond aan benodigde intelligentie; daarna winnen prijs, betrouwbaarheid en integratie, waardoor ook de kostprijs verder zal dalen.

AI gaat echt niet weg, het wordt juist dieper onderdeel van het dagelijks leven.

En ja, de "AI-slop" neemt toe. Ironisch gevolg: de waarde van gecontroleerde, betrouwbare bronnen stijgt weer: kwaliteitskranten en nieuwsoutlets die actief verifiëren hebben hier een kans. Open feeds als X / Facebook / Instagram worden juist onbruikbaar als de tijdlijn vooral generatieve rommel is.

Acties:
  • 0 Henk 'm!

  • DeNachtwacht
  • Registratie: December 2005
  • Laatst online: 13:36

DeNachtwacht

youtube.com/@hisrep

@autje Je ziet in een pioniersmarkt altijd dat er heel veel haken en ogen zijn, pilots opkomen die falen of kortstondig succes hebben, dingen die misgaan en/of efficiënter kunnen. Natuurlijk moet AI daarin flinke stappen zetten, maar er is niemand die daar tegen is. Rokende AI-datacenters kosten simpelweg ook een klap geld. Maar wat daar tegen overstaat is dat ze ook enorme besparingen opleveren die niemand in dat ecologische kamp ooit noemt.

Simpel voorbeeldje: advocatenkantoren ontdekken nu en masse hoe veel efficiënter hun werk kan (en hoeveel functies niet meer nodig zijn) omdat AI zeer goed in staat is de formeel juridische teksten snel door te gaan en relevante passages eruit te pakken waardoor de slagkracht van advocaten fors hoger wordt, en al die arbeidsintensieve stagiairs die die dikke boeken digitaal door moesten pluizen, nu niet meer nodig zijn. Die kosten dus geen geld meer, het kantoor kan kleiner zijn, het kantoor kan sneller werken, et cetera.

AI heeft nog heel veel haken en ogen, maar heeft simpelweg in veel te veel bedrijfstakken veel te veel potentie om nog te falen, simpelweg omdat die paniek die elke 3 maanden in de media is omdat er wéér iets engs kan met het genereren van filmpjes en/of plaatjes, maar een heel klein deel is waar AI goed in is en wat gewoon uitwassen zijn. Ook in de contentwereld wil niemand slecht gegenereerde of enge filmpjes waar iedereen boos over is, maar wél goedkoop en snel te maken beeldmateriaal dat er professioneel uitziet.

Kortom: AI blijft bij ons, ga daar maar vanuit.

youtube.com/@hisrep


Acties:
  • 0 Henk 'm!

  • RayNbow
  • Registratie: Maart 2003
  • Nu online

RayNbow

Kirika <3

DeNachtwacht schreef op woensdag 8 oktober 2025 @ 10:33:
Rokende AI-datacenters kosten simpelweg ook een klap geld. Maar wat daar tegen overstaat is dat ze ook enorme besparingen opleveren die niemand in dat ecologische kamp ooit noemt.

Simpel voorbeeldje: advocatenkantoren ontdekken nu en masse hoe veel efficiënter hun werk kan
Hoeveel dan?

Ipsa Scientia Potestas Est
NNID: ShinNoNoir


Acties:
  • +1 Henk 'm!

  • Wozmro
  • Registratie: December 2016
  • Laatst online: 12:29
Ik zag onlangs ook nog een leuk praktisch voorbeeldje op de werkvloer:

Een elektro installateur had een risicoanalyse nodig voor wat betreft de brandveiligheid in een bedrijf.

Vroeger ging dat via iemand die we een expert/adviseur/consultant kunnen noemen. Met bijhorende factuur.

Nu deed hij dat via chatgpt, in 5min was het dossiertje klaar.
Belangrijke opmerking: de installateur heeft zeker zelf de kennis om de juiste prompts te schrijven en het resultaat na te zien.

Ik zei al lachend: je hebt er een werknemer bij. Kreeg ik een blik terug van: aja, tot op zekere hoogte wel.

Acties:
  • 0 Henk 'm!

  • DeNachtwacht
  • Registratie: December 2005
  • Laatst online: 13:36

DeNachtwacht

youtube.com/@hisrep

Sorry hoor, maar als je zelf even 2 seconden googlet vind je het antwoord op je vraag al.
https://datasciencelab.nl/ai-in-de-advocatuur/

Ik vind het leuk om te discussieren en argumenten uit te wisselen, maar wat je nu doet is zelf meteen de bal terugkaatsen zonder enig argument te noemen waarom het níet efficiënter zou zijn.
Wozmro schreef op woensdag 8 oktober 2025 @ 10:39:
Ik zag onlangs ook nog een leuk praktisch voorbeeldje op de werkvloer:

Een elektro installateur had een risicoanalyse nodig voor wat betreft de brandveiligheid in een bedrijf.

Vroeger ging dat via iemand die we een expert/adviseur/consultant kunnen noemen. Met bijhorende factuur.

Nu deed hij dat via chatgpt, in 5min was het dossiertje klaar.
Belangrijke opmerking: de installateur heeft zeker zelf de kennis om de juiste prompts te schrijven en het resultaat na te zien.

Ik zei al lachend: je hebt er een werknemer bij. Kreeg ik een blik terug van: aja, tot op zekere hoogte wel.
Yup, net als programmeurs. Die worden ook steeds meer een manager van AI tools in plaats van dat ze zelf programmeren. Je hebt grondige kennis nodig om goed te snappen wat die AI tools doen, want er mogen natuurlijk geen fouten inzitten, maar je vergroot je slagkracht enorm als programmeur en wordt veel meer een reviewer van code dan dat je zelf typt, maar je bent wel al snel twee keer zo efficiënt in je werk daardoor.

[ Voor 54% gewijzigd door DeNachtwacht op 08-10-2025 10:44 ]

youtube.com/@hisrep


Acties:
  • 0 Henk 'm!

  • RayNbow
  • Registratie: Maart 2003
  • Nu online

RayNbow

Kirika <3

DeNachtwacht schreef op woensdag 8 oktober 2025 @ 10:41:
[...]

Sorry hoor, maar als je zelf even 2 seconden googlet vind je het antwoord op je vraag al.
https://datasciencelab.nl/ai-in-de-advocatuur/
Wijs jij dan even aan op die pagina waar de boel gekwantificeerd wordt?

Ipsa Scientia Potestas Est
NNID: ShinNoNoir


Acties:
  • 0 Henk 'm!

  • DeNachtwacht
  • Registratie: December 2005
  • Laatst online: 13:36

DeNachtwacht

youtube.com/@hisrep

@RayNbow je mag nu toch eerst zelf beginnen met argumenten te noemen waarom het níet efficienter zou worden in plaats van de bal weer terugkaatsen zonder zelf inhoudelijk te reageren.

youtube.com/@hisrep


Acties:
  • +1 Henk 'm!

  • edie
  • Registratie: Februari 2002
  • Nu online
DeNachtwacht schreef op woensdag 8 oktober 2025 @ 10:33:
[...]
Simpel voorbeeldje: advocatenkantoren ontdekken nu en masse hoe veel efficiënter hun werk kan (en hoeveel functies niet meer nodig zijn) omdat AI zeer goed in staat is de formeel juridische teksten snel door te gaan en relevante passages eruit te pakken waardoor de slagkracht van advocaten fors hoger wordt, en al die arbeidsintensieve stagiairs die die dikke boeken digitaal door moesten pluizen, nu niet meer nodig zijn. Die kosten dus geen geld meer, het kantoor kan kleiner zijn, het kantoor kan sneller werken, et cetera.
[...]
Oh, je bedoelt die juridische teksten die referenties bevatten naar uitspraken die niet bestaan? Dat is nl het probleem van een tekstgenerator: het genereert tekst. Het heeft geen feitenkennis.

"In America, consumption equals jobs. In these days, banks aren't lending us the money we need to buy the things we don't need to create the jobs we need to pay back the loans we can't afford." - Stephen Colbert


Acties:
  • 0 Henk 'm!

  • de Peer
  • Registratie: Juli 2002
  • Laatst online: 14:28

de Peer

under peer review

DeNachtwacht schreef op woensdag 8 oktober 2025 @ 10:44:
@RayNbow je mag nu toch eerst zelf beginnen met argumenten te noemen waarom het níet efficienter zou worden in plaats van de bal weer terugkaatsen zonder zelf inhoudelijk te reageren.
zo werkt het niet. Jij claimt iets, dan zul jij met bewijzen moeten komen.
Iemand anders kan moeilijk iets ontkrachten wat jij nog niet eens aangetoond hebt.

Acties:
  • 0 Henk 'm!

  • autje
  • Registratie: Januari 2009
  • Nu online
DeNachtwacht schreef op woensdag 8 oktober 2025 @ 10:33:
@autje Je ziet in een pioniersmarkt altijd dat er heel veel haken en ogen zijn, pilots opkomen die falen of kortstondig succes hebben, dingen die misgaan en/of efficiënter kunnen. Natuurlijk moet AI daarin flinke stappen zetten, maar er is niemand die daar tegen is. Rokende AI-datacenters kosten simpelweg ook een klap geld. Maar wat daar tegen overstaat is dat ze ook enorme besparingen opleveren die niemand in dat ecologische kamp ooit noemt.

Simpel voorbeeldje: advocatenkantoren ontdekken nu en masse hoe veel efficiënter hun werk kan (en hoeveel functies niet meer nodig zijn) omdat AI zeer goed in staat is de formeel juridische teksten snel door te gaan en relevante passages eruit te pakken waardoor de slagkracht van advocaten fors hoger wordt, en al die arbeidsintensieve stagiairs die die dikke boeken digitaal door moesten pluizen, nu niet meer nodig zijn. Die kosten dus geen geld meer, het kantoor kan kleiner zijn, het kantoor kan sneller werken, et cetera.

AI heeft nog heel veel haken en ogen, maar heeft simpelweg in veel te veel bedrijfstakken veel te veel potentie om nog te falen, simpelweg omdat die paniek die elke 3 maanden in de media is omdat er wéér iets engs kan met het genereren van filmpjes en/of plaatjes, maar een heel klein deel is waar AI goed in is en wat gewoon uitwassen zijn. Ook in de contentwereld wil niemand slecht gegenereerde of enge filmpjes waar iedereen boos over is, maar wél goedkoop en snel te maken beeldmateriaal dat er professioneel uitziet.

Kortom: AI blijft bij ons, ga daar maar vanuit.
Wat ik in dit soort verhalen over 'productiever', 'efficienter', en 'die kosten dus geen geld meer' altijd mis is dat die verhalen vrijwel altijd gaan over financiële voordelen, maar nooit over hoe die voordelen verdeeld zouden moeten worden. Mijn mening: dit zou moeten leiden tot minder werken voor hetzelfde geld. Maar vreemd genoeg is dat nooit het uitgangspunt van de werkgevers.

Mijn ecologische barrière is het feit dat al die datacenters een hoop stroom en water (voor koeling) vragen, en daarvan hebben we nu al tekorten. Meta plempt in de VS gebouwen neer zo groot als Manhattan, en de boeren die ernaast wonen hebben geen water meer om hun land te besproeien, en het ernaast liggende dorp geen stroom meer.

Acties:
  • 0 Henk 'm!

  • CVTTPD2DQ
  • Registratie: Augustus 2019
  • Laatst online: 14:22
Wozmro schreef op woensdag 8 oktober 2025 @ 10:39:
Vroeger ging dat via iemand die we een expert/adviseur/consultant kunnen noemen. Met bijhorende factuur.

Nu deed hij dat via chatgpt, in 5min was het dossiertje klaar.
Belangrijke opmerking: de installateur heeft zeker zelf de kennis om de juiste prompts te schrijven en het resultaat na te zien.
Dat moet je maar hopen. Ik krijg regelmatig van collega's dingen onder ogen die ze door ChatGPT hebben laten genereren. Die collega's zijn zeker in staat om zelf dingen te schrijven en fouten eruit te vissen, maar regelmatig gaat er toch een hoop mis.

Mijn grootste vrees mbt. AI is dat steeds meer bedrijven / werknemers zich er met een Jantje van Leiden vanaf maken, en dat dat op een gegeven moment tot brokken gaat leiden.

Acties:
  • 0 Henk 'm!

  • woutertjez
  • Registratie: Januari 2001
  • Laatst online: 14:18
edie schreef op woensdag 8 oktober 2025 @ 10:49:
[...]

Oh, je bedoelt die juridische teksten die referenties bevatten naar uitspraken die niet bestaan? Dat is nl het probleem van een tekstgenerator: het genereert tekst. Het heeft geen feitenkennis.
Dit was met voorgaande versies zeker het geval. Het aantal hallucinaties is echt enorm afgenomen met tools als Deep Research, and GPT5-thinking van OpenAI en zal alleen maar nog verder afnemen.

Je kan je hoofd in het zand steken en de AI modellen simpelweg tekst generatoren noemen, maar feit blijft dat zelfs de meest kritische AI wetenschappers (zoals bijvoorbeeld een Yann Lecun) toegeven dat de capaciteiten ver boven een "tekst generator" liggen met de laatste state of the art modellen (en dan in het bijzonder de "reasoning" modellen).

Acties:
  • +1 Henk 'm!

  • autje
  • Registratie: Januari 2009
  • Nu online
DeNachtwacht schreef op woensdag 8 oktober 2025 @ 10:41:
[...]

Yup, net als programmeurs. Die worden ook steeds meer een manager van AI tools in plaats van dat ze zelf programmeren. Je hebt grondige kennis nodig om goed te snappen wat die AI tools doen, want er mogen natuurlijk geen fouten inzitten, maar je vergroot je slagkracht enorm als programmeur en wordt veel meer een reviewer van code dan dat je zelf typt, maar je bent wel al snel twee keer zo efficiënt in je werk daardoor.
Nu zijn er nog seniors die dit soort 'vibe coding' in goede banen kunnen leiden door de fouten eruit te halen, maar op een gegeven moment gaan die met pensioen, en als we al het grunt-werk uitbesteden aan AI i.p.v. junior programmeurs, waar blijft dan de volgende generatie programmeurs die die fouten nog kunnen herkennen?

Acties:
  • +4 Henk 'm!

  • CVTTPD2DQ
  • Registratie: Augustus 2019
  • Laatst online: 14:22
DeNachtwacht schreef op woensdag 8 oktober 2025 @ 10:41:
Yup, net als programmeurs. Die worden ook steeds meer een manager van AI tools in plaats van dat ze zelf programmeren. Je hebt grondige kennis nodig om goed te snappen wat die AI tools doen, want er mogen natuurlijk geen fouten inzitten, maar je vergroot je slagkracht enorm als programmeur en wordt veel meer een reviewer van code dan dat je zelf typt, maar je bent wel al snel twee keer zo efficiënt in je werk daardoor.
Een van de eerste echte empirische studies over het onderwerp lijkt erop te wijzen dat Programmeurs 20% langzamer worden door AI.

Acties:
  • +1 Henk 'm!

  • DeNachtwacht
  • Registratie: December 2005
  • Laatst online: 13:36

DeNachtwacht

youtube.com/@hisrep

de Peer schreef op woensdag 8 oktober 2025 @ 10:49:
[...]

zo werkt het niet. Jij claimt iets, dan zul jij met bewijzen moeten komen.
Iemand anders kan moeilijk iets ontkrachten wat jij nog niet eens aangetoond hebt.
Het punt is dat er naar cijfers wordt gevraagd, maar die zijn er simpelweg helemaal niet. Hoe kun je nu precies aangeven hoeveel efficiënter iets wordt? Dat is hetzelfde als vragen waarom ga je dan naar de Dirk en niet naar de Albert Heijn zonder dat je precies weet hoeveel procent goedkoper de Dirk is?

De realiteit is dat, net als iedereen weet dat de Dirk over het algemeen goedkoper is dan de AH, in de advocatuur er nu ook behoorlijk fors achter de oren wordt gekrabt v.w.b. de stage en junior functies. Die markt is gewoon heel snel aan het vernanderen en, zoals ook al gezegd, is daar met een simpele google opdracht genoeg over te vinden.
https://magazine.advocate...-andere-beroepsopleiding/

Dat daar niet meteen een percentage op geplakt kan worden betekent niet meteen dat het niet klopt.

[ Voor 3% gewijzigd door DeNachtwacht op 08-10-2025 10:59 ]

youtube.com/@hisrep


Acties:
  • +1 Henk 'm!

  • woutertjez
  • Registratie: Januari 2001
  • Laatst online: 14:18
autje schreef op woensdag 8 oktober 2025 @ 10:56:
[...]


Nu zijn er nog seniors die dit soort 'vibe coding' in goede banen kunnen leiden door de fouten eruit te halen, maar op een gegeven moment gaan die met pensioen, en als we al het grunt-werk uitbesteden aan AI i.p.v. junior programmeurs, waar blijft dan de volgende generatie programmeurs die die fouten nog kunnen herkennen?
Dat lijkt nu een uitdaging inderdaad. Maar we zullen over een klein aantal jaar waarschijnlijk volledig naar no-code gaan. Requirements opstellen, design, product management, en testen zullen de banen zijn die de AIs in de juiste banen gaan sturen. Software engineering is een uitstervend vak met hier en daar pockets voor echt gespecialiseerde kennis.

Acties:
  • 0 Henk 'm!

  • DeNachtwacht
  • Registratie: December 2005
  • Laatst online: 13:36

DeNachtwacht

youtube.com/@hisrep

CVTTPD2DQ schreef op woensdag 8 oktober 2025 @ 10:57:
[...]


Een van de eerste echte empirische studies over het onderwerp lijkt erop te wijzen dat Programmeurs 20% langzamer worden door AI.
Je weet het weer leuk te framen. Dit is wat die onderzoekers in jouw artikel zelf zeggen zonder dat ik verder het artikel goed bestudeerd heb op kwaliteit.
Summary of observed results
AI slows down experienced open-source developers in our RCT, but demonstrates impressive benchmark scores and anecdotally is widely useful.

youtube.com/@hisrep


Acties:
  • 0 Henk 'm!

  • de Peer
  • Registratie: Juli 2002
  • Laatst online: 14:28

de Peer

under peer review

DeNachtwacht schreef op woensdag 8 oktober 2025 @ 10:58:
[...]

Het punt is dat er naar cijfers wordt gevraagd, maar die zijn er simpelweg helemaal niet. Hoe kun je nu precies aangeven hoeveel efficiënter iets wordt?
Inderdaad, dat kun je niet. een daarom kun je niet zeggen wat jij zei, namelijk "Simpel voorbeeldje: advocatenkantoren ontdekken nu en masse hoe veel efficiënter hun werk kan (en hoeveel functies niet meer nodig zijn)"
Dat daar niet meteen een percentage op geplakt kan worden betekent niet meteen dat het niet klopt.
het betekent dat je het (nog) niet weet, en dus kun je er geen beweringen over doen, hooguit een persoonlijke schatting. Blijft dan een mening dus.

Acties:
  • 0 Henk 'm!

  • DeNachtwacht
  • Registratie: December 2005
  • Laatst online: 13:36

DeNachtwacht

youtube.com/@hisrep

@de Peer Zou ook jij wellicht even inhoudelijk kunnen reageren op de bron, het Advocatenblad, die ik aanhaal?

youtube.com/@hisrep


Acties:
  • +1 Henk 'm!

  • Stukfruit
  • Registratie: Oktober 2007
  • Niet online
DeNachtwacht schreef op woensdag 8 oktober 2025 @ 10:41:
[...]

Sorry hoor, maar als je zelf even 2 seconden googlet vind je het antwoord op je vraag al.
https://datasciencelab.nl/ai-in-de-advocatuur/

Ik vind het leuk om te discussieren en argumenten uit te wisselen, maar wat je nu doet is zelf meteen de bal terugkaatsen zonder enig argument te noemen waarom het níet efficiënter zou zijn.
Ben je je er van bewust dat je hier linkt naar een artikel dat waarschijnlijk deels of geheel gegenereerd is en vooral bestaat voor SEO om een bedrijf te promoten dat spreekt over concrete plannen maar nergens concreet iets lijkt te kunnen bewijzen?

Dat ze de Nationale Opera & Ballet hebben geholpen om met data voor "volle zalen, een breder publiek en inclusie in elke stoel" om te gaan is prachtig, maar het is eenzelfde inhoudsloze tekst waar men nu steeds meer over begint te klagen. Of om het korter te houden: het lijkt een ordinaire SEO-boer met wat consultants te zijn. Die verkopen marketing, geen feiten of (anders dan voor marketing) nuttig inzicht.

Daarom heeft men een probleem met wat nu "AI" wordt genoemd. Er zit geen waarde in de content omdat je er weinig mee kan. Een dartpijl op een bord met weetjes gooien zou dezelfde resultaten geven bij het vinden van nuttige tekst.

Wel uitkijken voor de open deur naast het bord :p

Dat zit wel Schnorr.


Acties:
  • 0 Henk 'm!

  • autje
  • Registratie: Januari 2009
  • Nu online
woutertjez schreef op woensdag 8 oktober 2025 @ 11:00:
[...]

Dat lijkt nu een uitdaging inderdaad. Maar we zullen over een klein aantal jaar waarschijnlijk volledig naar no-code gaan. Requirements opstellen, design, product management, en testen zullen de banen zijn die de AIs in de juiste banen gaan sturen. Software engineering is een uitstervend vak met hier en daar pockets voor echt gespecialiseerde kennis.
Het lijkt me dat AI zelf ook wel kan testen en het product management kan doen (beetje afhankelijk wat je onder product management verstaat). Misschien zelfs wel design.

Acties:
  • +1 Henk 'm!

  • Stukfruit
  • Registratie: Oktober 2007
  • Niet online
woutertjez schreef op woensdag 8 oktober 2025 @ 11:00:
[...]

Dat lijkt nu een uitdaging inderdaad. Maar we zullen over een klein aantal jaar waarschijnlijk volledig naar no-code gaan. Requirements opstellen, design, product management, en testen zullen de banen zijn die de AIs in de juiste banen gaan sturen. Software engineering is een uitstervend vak met hier en daar pockets voor echt gespecialiseerde kennis.
Wie gaat de software schrijven die het no-code werk produceert? Tot nu toe genereert het nog steeds weinig meer dan nette todo-lijstjes. Ja, ook de varianten die er op het eerste gezicht indrukwekkend uitzien. En voor mensen die nooit programmeur zijn geweest is dat inderdaad enorm handig.

Maar dat wordt nog steeds allemaal bedacht door mensen. Je doet het harde werk van programmeurs enorm tekort door dit soort dingen te brengen alsof het een feit is.

Dat zit wel Schnorr.


Acties:
  • +1 Henk 'm!

  • de Peer
  • Registratie: Juli 2002
  • Laatst online: 14:28

de Peer

under peer review

DeNachtwacht schreef op woensdag 8 oktober 2025 @ 11:03:
@de Peer Zou ook jij wellicht even inhoudelijk kunnen reageren op de bron, het Advocatenblad, die ik aanhaal?
Dus jij bent weer in 1 of andere fuik beland en dan moeten wij dat ook allemaal gaan lezen om aan de discussie deel te kunnen nemen? Eerder deed je dat ook telkens met youtube-kanalen met zeer foute beleggingsadviezen.
En dan aandragen dat anderen maar moeten aangeven waarom jouw bronnen niet waardevol zijn. Zo werkt het niet.

Ook toen was het advies: probeer kritischer te zijn over de bronnen die je aanhaalt, en wees terughoudend met claims die je niet hard kunt maken.

[ Voor 10% gewijzigd door de Peer op 08-10-2025 11:13 ]


Acties:
  • 0 Henk 'm!

  • edie
  • Registratie: Februari 2002
  • Nu online
Kwam gisteren nog een Microsoft devblog tegen: Developer and AI Code Reviewer: Reviewing AI-Generated Code in .NET

Met "tips" hoe je de code kan reviewen en de tekstgenerator het laten verbeteren. Maar ik denk dan: waarom kan dat ding niet meteen de juiste tekst genereren? Of, kan dat ding niet mijn PR controleren en suggesties geven ter verbetering? Maar helaas zijn er voor dat laatste natuurlijk al static code analysis en compiler warnings enzo waardoor er geen plaats is voor de tekstgenerator en de tech bros geen geld kunnen verdienen.

"In America, consumption equals jobs. In these days, banks aren't lending us the money we need to buy the things we don't need to create the jobs we need to pay back the loans we can't afford." - Stephen Colbert


Acties:
  • 0 Henk 'm!

  • CVTTPD2DQ
  • Registratie: Augustus 2019
  • Laatst online: 14:22
DeNachtwacht schreef op woensdag 8 oktober 2025 @ 11:02:
Je weet het weer leuk te framen. Dit is wat die onderzoekers in jouw artikel zelf zeggen zonder dat ik verder het artikel goed bestudeerd heb op kwaliteit.
Als je anecdotische argumenten op dezelfde waarde schat als empirische resultaten, denk ik dat het ook niet zoveel zin heeft om het artikel op kwaliteit te beoordelen.

Ik ken je verder niet, maar ik denk dat ik me aansluit bij @de Peer : geloof niet alles wat je op internet leest. Zeker niet in deze tijd.

Acties:
  • 0 Henk 'm!

  • DeNachtwacht
  • Registratie: December 2005
  • Laatst online: 13:36

DeNachtwacht

youtube.com/@hisrep

@CVTTPD2DQ Dan moeten we jouw bron dus maar niet geloven? Ik citeer alleen maar iets uit de bron die jij zelf aanhaalt
@de Peer Je speelt op de man en ook nu weer weiger je inhoudelijk te reageren op een goed artikel in een gerenommeerd advocatenblad.

Ik ga de discussie hier verder dan ook maar laten. Jammer dat het niet op inhoudelijke argumenten kan.

youtube.com/@hisrep


Acties:
  • +1 Henk 'm!

  • Jos_V
  • Registratie: November 2016
  • Laatst online: 11:40
DeNachtwacht schreef op woensdag 8 oktober 2025 @ 10:58:
[...]

Het punt is dat er naar cijfers wordt gevraagd, maar die zijn er simpelweg helemaal niet. Hoe kun je nu precies aangeven hoeveel efficiënter iets wordt? Dat is hetzelfde als vragen waarom ga je dan naar de Dirk en niet naar de Albert Heijn zonder dat je precies weet hoeveel procent goedkoper de Dirk is?

De realiteit is dat, net als iedereen weet dat de Dirk over het algemeen goedkoper is dan de AH, in de advocatuur er nu ook behoorlijk fors achter de oren wordt gekrabt v.w.b. de stage en junior functies. Die markt is gewoon heel snel aan het vernanderen en, zoals ook al gezegd, is daar met een simpele google opdracht genoeg over te vinden.
https://magazine.advocate...-andere-beroepsopleiding/

Dat daar niet meteen een percentage op geplakt kan worden betekent niet meteen dat het niet klopt.
Je kan aan je bonnetje zien of de Dirk goedkoper is dan de AH. het programma Kassa maakt al jaren een vergelijking gebaseerd op cijfertjes die door alle media word overgenomen. and jij kan de cijfers gewoon na meten en na lezen.


een advocaat die zegt hun kantoor is nu veel efficiënter zonder daar getallen bij te geven. je zou denken dat het kantoor ziet dat ze een % meer zaken behandelen met het zelfde persooneel, of even veel met x% personeel minder. of dat de hoeveelheid uren die ze gemiddeld factureren aan de klant omlaag gaat. en hoeveel uren dat zijn. dit is gewoon meetbaar, net zoals je boodschappen worden gemeten.

gevoel is leuk, maar het is niet noodzakelijk de realiteit - en juist willen we voorbij gevoel gaan, of het nuttig is en of het de investering daadwerkelijk waard is.

Acties:
  • 0 Henk 'm!

  • autje
  • Registratie: Januari 2009
  • Nu online
CVTTPD2DQ schreef op woensdag 8 oktober 2025 @ 11:17:
[...]
Ik ken je verder niet, maar ik denk dat ik me aansluit bij @de Peer : geloof niet alles wat je op internet leest. Zeker niet in deze tijd.
En dan zijn we weer terug bij het filmpje met Sam Altman wat ik eerder postte (al ging dat over video, maar het verhaal blijft hetzelfde): hoe kunnen we in de toekomst weten dat wat op het internet staat ook echt waar is, zeker als je bedenkt dat we onze nieuwsgaring steeds meer van internet halen. Wat voor waarde heeft het begrip 'waarheid' straks nog (dat kun je je nu al afvragen)?

Dat wauwel-antwoord van Altman kan ik niets mee, dat is proberen de vraag te ontwijken, want als hij het werkelijke antwoord geeft snijdt hij in zijn eigen vingers: het internet is over een paar jaar geheel niet meer te vertrouwen.

(dit is mijn maatschappelijke en filosofische bezwaar: AI kan ook de maatschappij verder uit elkaar scheuren, omdat ook kwaadwillenden ermee om kunnen gaan; vaak zelfs beter, zie beinvloeding via social media).

[ Voor 10% gewijzigd door autje op 08-10-2025 11:29 ]


Acties:
  • 0 Henk 'm!

  • FunkyTrip
  • Registratie: November 2001
  • Nu online

FunkyTrip

Funky vidi vici!

VHS won het van Philips vanwege porno
Internet werd groot vanwege porno
Ik had gehoopt dat de AI doorbraak ook door porno zou komen, maar voorlopig valt het aanbod tegen O-)

Dit dus.


Acties:
  • +1 Henk 'm!

  • J2S
  • Registratie: December 2003
  • Nu online

J2S

FunkyTrip schreef op woensdag 8 oktober 2025 @ 11:31:
VHS won het van Philips vanwege porno
Internet werd groot vanwege porno
Ik had gehoopt dat de AI doorbraak ook door porno zou komen, maar voorlopig valt het aanbod tegen O-)
Niet Philips. Sony. Betamax. En er kwam ook porno uit op betamax. Er zijn andere redenen waarom VHS heeft gewonnen. Check youtube kanaal Technology Connections.

Internet werd groot vanwege kattenfoto's :+

Er is niet een éénduidige reden aan te wijzen. Porno speelde vast een rol, maar geen doorslaggevende.

En voor KI kan je kijken naar virtuele relaties enzo.

Mijn systeempjes ||_|| 50D + grip || EF-S 10-22mm f/3.5-4.5 USM; EF-S 17-55mm F/2.8 IS USM; EF 85mm F/1.8 USM


Acties:
  • 0 Henk 'm!

  • woutertjez
  • Registratie: Januari 2001
  • Laatst online: 14:18
autje schreef op woensdag 8 oktober 2025 @ 11:26:
[...]


En dan zijn we weer terug bij het filmpje met Sam Altman wat ik eerder postte (al ging dat over video, maar het verhaal blijft hetzelfde): hoe kunnen we in de toekomst weten dat wat op het internet staat ook echt waar is, zeker als je bedenkt dat we onze nieuwsgaring steeds meer van internet halen. Wat voor waarde heeft het begrip 'waarheid' straks nog (dat kun je je nu al afvragen)?

Dat wauwel-antwoord van Altman kan ik niets mee, dat is proberen de vraag te ontwijken, want als hij het werkelijke antwoord geeft snijdt hij in zijn eigen vingers: het internet is over een paar jaar geheel niet meer te vertrouwen.

(dit is mijn maatschappelijke en filosofische bezwaar: AI kan ook de maatschappij verder uit elkaar scheuren, omdat ook kwaadwillenden ermee om kunnen gaan; vaak zelfs beter, zie beinvloeding via social media).
Wat betreft fake content zie ik het een stuk positiever in, en geloof gedeeltelijk in de “dead internet” theorie. Door AI wordt er op sites als X, FB, IG (en wellicht ook Reddit) etc zoveel gepost door bots en AI, dat mensen de interesse kwijt gaan raken. Ik verwacht een heropleving van de traditionelere kwaliteitsmedia met hun verificatie van bronnen en content. Mensen zullen het snel zat worden om naar “AI slop” te kijken zodra de nieuwigheid eraf is.

Heropleving van Main Stream Media en minder aandacht voor figuren als Musk met zijn propaganda tool X. Daar teken ik voor.

Acties:
  • 0 Henk 'm!

  • woutertjez
  • Registratie: Januari 2001
  • Laatst online: 14:18
Stukfruit schreef op woensdag 8 oktober 2025 @ 11:10:
[...]


Wie gaat de software schrijven die het no-code werk produceert? Tot nu toe genereert het nog steeds weinig meer dan nette todo-lijstjes. Ja, ook de varianten die er op het eerste gezicht indrukwekkend uitzien. En voor mensen die nooit programmeur zijn geweest is dat inderdaad enorm handig.

Maar dat wordt nog steeds allemaal bedacht door mensen. Je doet het harde werk van programmeurs enorm tekort door dit soort dingen te brengen alsof het een feit is.
Hoe doe ik het harde werk van programmeurs tekort? Geloof jij niet dat AI steeds meer taken van programmeurs gaat overnemen en er hierdoor significant minder programmeurs voor nodig zijn? Ik ga mijn kinderen (jonge tieners) niet aanraden om iets van software engineering te studeren. Alhoewel er zeker werk zal zijn voor het ontwikkelen van complexe algoritmes, zal dit al naar gelang van tijd ook steeds minder worden. Software engineering is maar gedeeltelijk het schrijven en definiëren van algoritmes, het gros van het werk is bestaat uit taken die AI zeer binnenkort kan overnemen. Dat staat verder los van het feit of programmeurs “hard werken” of niet.

Acties:
  • 0 Henk 'm!

  • autje
  • Registratie: Januari 2009
  • Nu online
woutertjez schreef op woensdag 8 oktober 2025 @ 14:02:
[...]

Wat betreft fake content zie ik het een stuk positiever in, en geloof gedeeltelijk in de “dead internet” theorie. Door AI wordt er op sites als X, FB, IG (en wellicht ook Reddit) etc zoveel gepost door bots en AI, dat mensen de interesse kwijt gaan raken. Ik verwacht een heropleving van de traditionelere kwaliteitsmedia met hun verificatie van bronnen en content. Mensen zullen het snel zat worden om naar “AI slop” te kijken zodra de nieuwigheid eraf is.

Heropleving van Main Stream Media en minder aandacht voor figuren als Musk met zijn propaganda tool X. Daar teken ik voor.
Dan heb jij meer vertrouwen in de mensheid dan ik. Vooralsnog wordt er al genoeg 'fake news' verspreid door dat soort platformen, wat door hele volksstammen klakkeloos voor waar wordt aangenomen. Het probleem is dat hoe meer 'fake news' er verspreid wordt, hoe sneller ook ChatGPT het klakkeloos voor waar aanneemt en presenteert als de waarheid. En aangezien eerdergenoemde volksstammen ook niet verder kijken dan wat ChatGPT als antwoord geeft, en vervolgens dit verder als waarheid gaan verspreiden, krijg je een zichzelf versterkende loop.

Wekelijk niets wat ik in het menselijk gedrag m.b.t. informatie op het internet gezien heb in de afgelopen 20 jaar geeft mij het vertrouwen dat mensen ineens tot inzicht komen.

Acties:
  • 0 Henk 'm!

  • Stoney3K
  • Registratie: September 2001
  • Nu online

Stoney3K

Flatsehats!

FunkyTrip schreef op woensdag 8 oktober 2025 @ 11:31:
VHS won het van Philips vanwege porno
Dat is een broodje aap verhaal. VHS won het van Betamax omdat je op VHS meer dan 1 uur op kon nemen en het format dus geschikt was voor films en sportwedstrijden. VHS won het van V2000 omdat V2000 'late to the party' was en de recorders in verhouding duur waren.

Porno heeft daar nooit echt een belangrijke rol in gespeeld. Ook niet in de format-war tussen HD-DVD en BR was de impact van de uitgevers binnen de porno-industrie niet enorm groot.

Zet het daar maar neer! -- It's time to party like it's 1984 -- Soundcloud

Pagina: 1 ... 7 8 Laatste