"Lui" gebruik van AI

Pagina: 1
Acties:

Acties:
  • +12 Henk 'm!

  • Patriot
  • Registratie: December 2004
  • Nu online

Patriot

Fulltime #whatpulsert

Topicstarter
Het gebeurt steeds vaker dat iemand in een topic, maar eigenlijk is het sitebreed want ik zie het óók op de frontpage, langskomt met alleen maar een "ik heb je vraag even in ChatGPT gegooid, hier is het antwoord: [citaat]."

Vinden we daar nog iets van? Ik stoor me er zelf eerlijk gezegd een beetje aan. Ik heb geen probleem met het gebruik van LLM's om problemen uit te zoeken of om verdieping te vinden in een onderwerp, maar de antwoorden van deze diensten zijn mijns inziens niet betrouwbaar genoeg om gewoon zo als klinkklare reactie neer te plempen. Eigenlijk zadel je de lezer vervolgens op met de moeite die je als poster had moeten doen, het is in zekere zin (en wat mij betreft) maar een haar beter dan reageren met alleen een lmgtfy-link.

Als ik er een wat concretere suggestie van zou moeten maken, zou ik willen voorstellen dat reacties die alleen maar een antwoord van een LLM op de centrale vraag van het topic doorzetten zonder onderbouwing, of anderszins substantiële toevoeging aan het topic, worden verwijderd.

Ben benieuwd wat jullie hiervan vinden :)

Acties:
  • +2 Henk 'm!

  • Loolladin
  • Registratie: Juli 2023
  • Laatst online: 11-06 14:58
Volgens mij is dat al het geval. Er is dacht ik ook een apart topic om LLM responses te melden.

Acties:
  • +4 Henk 'm!

  • mrc4nl
  • Registratie: September 2010
  • Nu online

mrc4nl

Procrastinatie expert

vroegah waren linkjes van let me google that for you ook niet welkom op tweakers. ik zie niet waarom een chatgpt antwoord nou zoveel anders is.

net autodrop, het zou verboden moeten worden

ora et labora


Acties:
  • +2 Henk 'm!

  • Orion84
  • Registratie: April 2002
  • Laatst online: 09:17

Orion84

Admin General Chat / Wonen & Mobiliteit

Fotogenie(k)?

Zie ook de discussie van een jaartje geleden: AI als antwoord

Kern is: reacties dienen behulpzaam te zijn. Ongevalideerde copy/paste AI antwoorden zijn dat al heel snel niet.

The problem with common sense is that it's not all that common. | LinkedIn | Flickr


Acties:
  • 0 Henk 'm!

  • Room42
  • Registratie: September 2001
  • Niet online
Patriot schreef op dinsdag 29 april 2025 @ 09:54:
[...] Eigenlijk zadel je de lezer vervolgens op met de moeite die je als poster had moeten doen [...]
Als je daarmee bedoelt dat je de tekst op waarheid en correctheid moet controleren, dan is dat nooit anders geweest.

En overigens schrijven sommige mensen hun post ook niet echt anders dan een 'prompt', zonder enige verdere moeite. Gelukkig is ook dat niet akkoord en kun je ook daar een TR voor indienen. (Voorbeeld: Toetsenbord tablet Libre Office :o)

[ Voor 6% gewijzigd door Room42 op 29-04-2025 10:10 ]

"Technological advancements don't feel fun anymore because of the motivations behind so many of them." Bron


Acties:
  • +1 Henk 'm!

  • Patriot
  • Registratie: December 2004
  • Nu online

Patriot

Fulltime #whatpulsert

Topicstarter
Orion84 schreef op dinsdag 29 april 2025 @ 10:08:
Zie ook de discussie van een jaartje geleden: AI als antwoord

Kern is: reacties dienen behulpzaam te zijn. Ongevalideerde copy/paste AI antwoorden zijn dat al heel snel niet.
Ah ok, mijn voorstel is dus in feite al de facto beleid :) Thanks, dan weet ik op zich genoeg.

offtopic:
Gefeliciteerd!
Room42 schreef op dinsdag 29 april 2025 @ 10:09:
[...]

Als je daarmee bedoelt dat je de tekst op waarheid en correctheid moet controleren, dan is dat nooit anders geweest.
Nee, dat bedoel ik niet. Het is in feite een bron, en een bron die op zichzelf gewoon onbetrouwbaar is moet niet als zodanig gebruikt worden. Iedereen kan liegen, daar kun je niet omheen, maar deze 'bron' is per definitie iets waar je niets aan hebt. Het gaat een beetje om de 'kennis' die je vooraf hebt, en bij een "gewone" post weet je niet of die betrouwbaar is of niet (dus dat gaat case-by-case moeten zijn) terwijl je bij een LLM min of meer wel weet dat het niet betrouwbaar is (ook al kan óók daar een juist antwoord uit komen).
En overigens schrijven sommige mensen hun post ook niet echt anders dan een 'prompt', zonder enige verdere moeite. Gelukkig is ook dat niet akkoord en kun je ook daar een TR voor indienen. (Voorbeeld: Toetsenbord tablet Libre Office :o)
Ja, maar dat zijn heel uiteenlopende posts die je dus ook op uiteenlopende manieren kunt behandelen. Dat is gewoon "het beleid" en geen specifiek beleid :+

[ Voor 57% gewijzigd door Patriot op 29-04-2025 10:23 ]


Acties:
  • 0 Henk 'm!

  • scrappy.doo
  • Registratie: September 2004
  • Nu online
Ik zie het als een transitiefase waar we nu even inzitten. De standaard pavlov reactie van iedereen is nog niet om je vraag in een LLM te gooien terwijl dit best vaak toch een zeer redelijk antwoord op iemands vraag kan geven. Het duurde ook even voordat we "Google" als werkwoord zagen.
Geef het nog een 1,2,3 jaartjes en LLMs zitten zo erg in ons leven verweven dat je dit gedrag al niet meer ziet. Net zoals je nu de "let me google that for you" linkjes niet meer ziet.

Acties:
  • +3 Henk 'm!

  • Malantur
  • Registratie: Juni 2007
  • Laatst online: 10:02
Loolladin schreef op dinsdag 29 april 2025 @ 09:57:
Volgens mij is dat al het geval. Er is dacht ik ook een apart topic om LLM responses te melden.
Hier nog een linkje naar dit topic: Meldpunt voor AI-reacties

'Let's eat Grandma!' or, 'Let's eat, Grandma!'. Punctuation saves lives.


Acties:
  • 0 Henk 'm!

  • SCIxX
  • Registratie: Augustus 2002
  • Laatst online: 09:39
Het nieuwe https://letmegooglethat.com/.

Weinig nieuws dus, niet druk on maken.

Acties:
  • +1 Henk 'm!

  • Orion84
  • Registratie: April 2002
  • Laatst online: 09:17

Orion84

Admin General Chat / Wonen & Mobiliteit

Fotogenie(k)?

Let wel: dat gaat specifiek om reacties op de frontpage. Voor het forum zou ik gewoon de gebruikelijke rapporteer knop gebruiken als je het idee hebt dat een reactie niet door de beugel kan :)

The problem with common sense is that it's not all that common. | LinkedIn | Flickr


Acties:
  • 0 Henk 'm!

  • Patriot
  • Registratie: December 2004
  • Nu online

Patriot

Fulltime #whatpulsert

Topicstarter
scrappy.doo schreef op dinsdag 29 april 2025 @ 10:19:
Ik zie het als een transitiefase waar we nu even inzitten. De standaard pavlov reactie van iedereen is nog niet om je vraag in een LLM te gooien terwijl dit best vaak toch een zeer redelijk antwoord op iemands vraag kan geven. Het duurde ook even voordat we "Google" als werkwoord zagen.
Geef het nog een 1,2,3 jaartjes en LLMs zitten zo erg in ons leven verweven dat je dit gedrag al niet meer ziet. Net zoals je nu de "let me google that for you" linkjes niet meer ziet.
Ik zie lmgtfy-linkjes ook nog, die zijn ook heel erg hinderlijk. Zelfs als deze "terecht" zijn (d.w.z. er is ook 0,0 moeite genomen door de vraagsteller) zijn die ongepast. Volgens mij worden die ook in brede zin niet gewaardeerd op het forum.

@SCIxX nou ja, het echte antwoord is dus rapporteren ;)

[ Voor 3% gewijzigd door Patriot op 29-04-2025 10:26 ]


Acties:
  • +1 Henk 'm!

  • Room42
  • Registratie: September 2001
  • Niet online
Patriot schreef op dinsdag 29 april 2025 @ 10:15:
[...] maar deze 'bron' is per definitie iets waar je niets aan hebt. [...]
Dat is ook onwaar. Niet alles dat LLM's vermelden is onwaar, het probleem is dat als je niet weet wat er waar en niet waar is, het gebruiken van de gegeven informatie inderdaad gevaarlijk is. Maar nogmaals, dat geldt voor elke informatie. Als jij niet kan controleren of iets waar is, weet niet je niet 100% zeker of het geen leugen is. Het maakt geen verschil of ik dat schrijf of dat een LLM dat doet.

"Technological advancements don't feel fun anymore because of the motivations behind so many of them." Bron


Acties:
  • 0 Henk 'm!

  • __R__
  • Registratie: Juni 2008
  • Laatst online: 11-06 21:35
Loolladin schreef op dinsdag 29 april 2025 @ 09:57:
Volgens mij is dat al het geval. Er is dacht ik ook een apart topic om LLM responses te melden.
Joh nog effies en er komt een Dev langs die een LLM scraper maakt die dit soort antwoorden direct in de quarantaine zet voor beoordeling door een ander LLM. Even geduld en AI lost alles voor ons op. O-)

Acties:
  • 0 Henk 'm!

  • Patriot
  • Registratie: December 2004
  • Nu online

Patriot

Fulltime #whatpulsert

Topicstarter
Room42 schreef op dinsdag 29 april 2025 @ 10:28:
[...]

Dat is ook onwaar. Niet alles dat LLM's vermelden is onwaar, het probleem is dat als je niet weet wat er waar en niet waar is, het gebruiken van de gegeven informatie inderdaad gevaarlijk is. Maar nogmaals, dat geldt voor elke informatie. Als jij niet kan controleren of iets waar is, weet niet je niet 100% zeker of het geen leugen is. Het maakt geen verschil of ik dat schrijf of dat een LLM dat doet.
Nee, jij hanteert een andere maatstaf. Ik heb het over waarde toevoegen aan een topic, niet alleen over 'de waarheid' an sich. De waarde van een antwoord van een LLM is op zichzelf, m.i., altijd laag, de waarde van andere reacties is ook wel eens laag. Ik ben ook "tegen" andere reacties van lage waarde, maar als we het beleid "plaats geen reacties, want reacties zijn soms van te lage waarde" gaan hanteren dan houdt het snel op hier :+

Acties:
  • +3 Henk 'm!

  • NiGeLaToR
  • Registratie: Maart 2000
  • Laatst online: 11-06 17:20
@Patriot wat het lastigste is, is dat AI de neiging heeft volledig overtuigd te zijn van het eigen gelijk, ook bij hallucinaties. Dus dan is het soms helemaal tenenkrommend als mensen dat ongecheckt gewoon dumpen, in eigen woorden of niet.

En billen-bloot: ik heb een paar uur zitten prutsen met een apparaat omdat ik aan een AI vroeg hoe het werkt en die doodleuk onzin had lopen verkondigen waar ik pas achterkwam toen ik de handleiding zelf ging lezen. Tis gewoon tricky.. je gaat er te snel op vertrouwen, net als self drive functies in je auto.

Edit: schiet mij net te binnen - AI zit nog vaak op mount stupid.

[ Voor 10% gewijzigd door NiGeLaToR op 29-04-2025 11:04 ]

Listen & subscribe to my Life as a Journey Podcast


Acties:
  • 0 Henk 'm!

  • Patriot
  • Registratie: December 2004
  • Nu online

Patriot

Fulltime #whatpulsert

Topicstarter
NiGeLaToR schreef op dinsdag 29 april 2025 @ 10:56:
@Patriot wat het lastigste is, is dat AI de neiging heeft volledig overtuigd te zijn van het eigen gelijk, ook bij hallucinaties. Dus dan is het soms helemaal tenenkrommend als mensen dat ongecheckt gewoon dumpen, in eigen woorden of niet.
Helemaal mee eens, dat is één van de redenen waarom ik de waarde ervan zo laag inschat. Je kunt de reactie op vorm niet beoordelen, want de vorm is bij een LLM altijd hetzelfde.
En billen-bloot: ik heb een paar uur zitten prutsen met een apparaat omdat ik aan een AI vroeg hoe het werkt en die doodleuk onzin had lopen verkondigen waar ik pas achterkwam toen ik de handleiding zelf ging lezen. Tis gewoon tricky.. je gaat er te snel op vertrouwen, net als self drive functies in je auto.
Ach, goeie les voor de volgende keer :+

Ik wil nog even benadrukken: Ik vind het helemaal niet erg dat mensen LLM's gebruiken. Als iemand een vraag stelt, en een ander kan met behulp van een LLM makkelijker uitzoeken hoe het zit en de vraagsteller verwijzen naar een degelijke bron dan juich ik dat alleen maar toe. Het is vooral het klakkeloos neerplempen van een antwoord van een LLM dat ik te ver vind gaan.

Vandaag nog gezien dat iemand die er eigenlijk niets van wist en met een LLM op nuttige informatie en een betrouwbare bron met meer context uit kwam. Natuurlijk vind ik het suf dat in eerste instantie gewoon het antwoord van de LLM werd neergeplempt en de echte bron pas na edit werd toegevoegd, maar uiteindelijk is de TS verder dus dan zie ik het probleem niet zo.

Acties:
  • 0 Henk 'm!

  • NiGeLaToR
  • Registratie: Maart 2000
  • Laatst online: 11-06 17:20
@Patriot dat is exact hoe het wel werkt inderdaad: als je niets weet kan een LLM je helpen er snel meer over te leren. Als je de vraag letterlijk stelt om alleen het antwoord ergens te dumpen loop je het risico totale onzin te verkondigen wat je niet doorhebt omdat je er niets van geleerd hebt.

Dat van die handleiding was gewoon stom en zeker een goede les - maar geeft ook wel aan dat zo'n LLM heel overtuigend kan zijn. Wat het zei werkte niet, maar was wel logisch. Helaas werkte het apparaat in kwestie enigszinds onlogisch :+

Listen & subscribe to my Life as a Journey Podcast


Acties:
  • 0 Henk 'm!

  • EpicKip
  • Registratie: Maart 2017
  • Laatst online: 11-06 10:10
Ik zie lmgtfy-linkjes ook nog, die zijn ook heel erg hinderlijk. Zelfs als deze "terecht" zijn (d.w.z. er is ook 0,0 moeite genomen door de vraagsteller) zijn die ongepast. Volgens mij worden die ook in brede zin niet gewaardeerd op het forum.
Ik snap eigenlijk niet waarom deze bij terecht gebruik dan hinderlijk zijn? Is het geopende topic niet nog veel meer hinderlijk? Aangezien dat weer meuk op het forum geeft waar niemand op zit te wachten.

Acties:
  • 0 Henk 'm!

  • Dhr. Satoshi
  • Registratie: Januari 2018
  • Laatst online: 10-06 22:40
Het klopt dat nieuwe topics ook voor extra “meuk” kunnen zorgen op het forum, zeker als ze onnodig worden aangemaakt.

Wat hij echter bedoelde met “hinderlijk bij terecht gebruik”, is dat zelfs goedbedoelde reacties in bestaande topics soms de draad van het oorspronkelijke onderwerp kunnen verstoren. Daardoor kan de discussie minder overzichtelijk worden voor anderen die het topic volgen.

Het blijft dus altijd een afweging: wat is op dat moment het meest overzichtelijk en het minst storend voor de rest van het forum? Hij vindt het waardevol dat dit soort punten worden benoemd, want zo blijft het forum prettig voor iedereen.

Acties:
  • 0 Henk 'm!

  • Montaner
  • Registratie: Januari 2005
  • Laatst online: 09:21
Onder ieder onderwerp op X staat de vraag @grok please explain. Hier een discussie op voeren heeft echt 0 zin.

Acties:
  • 0 Henk 'm!

  • Patriot
  • Registratie: December 2004
  • Nu online

Patriot

Fulltime #whatpulsert

Topicstarter
EpicKip schreef op dinsdag 29 april 2025 @ 12:18:
[...]


Ik snap eigenlijk niet waarom deze bij terecht gebruik dan hinderlijk zijn? Is het geopende topic niet nog veel meer hinderlijk? Aangezien dat weer meuk op het forum geeft waar niemand op zit te wachten.
Dan maak je een TR aan en ga je verder. De oplossing voor slechte topics die niks toevoegen en we liever kwijt zijn dan rijk is, wat mij betreft, niet om er zelf dan ook maar een potje van te maken.

Acties:
  • 0 Henk 'm!

  • twain4me
  • Registratie: December 2017
  • Nu online

twain4me

Moderator Wonen & Mobiliteit
EpicKip schreef op dinsdag 29 april 2025 @ 12:18:
[...]


Ik snap eigenlijk niet waarom deze bij terecht gebruik dan hinderlijk zijn? Is het geopende topic niet nog veel meer hinderlijk? Aangezien dat weer meuk op het forum geeft waar niemand op zit te wachten.
Omdat Het Topic Report een veel beter alternatief is.

Na een TR kan ik buiten de discussie om, vriendelijk en constructief, sturing geven. waar een LMGTFY linkje dat eigenlijk nooit is. :)

[ Voor 3% gewijzigd door twain4me op 29-04-2025 15:47 ]

Pagina: 1