Acties:
  • 0 Henk 'm!

  • merlin_33
  • Registratie: September 2002
  • Laatst online: 14-07 10:50
In het gebruik van AI-tools, zoals afbeeldingsgenerators of tekstmodellen, valt me op dat ze vaak niet goed reageren op specifieke instructies. Bijvoorbeeld: als ik een AI vraag om geen tekst of letters in een afbeelding te gebruiken, negeert het model dit regelmatig. Dit leidt tot ongewenste resultaten en verspilling van tokens, wat frustrerend is.

Dit roept een aantal vragen op:

Waarom leren AI-systemen niet real-time van gebruikers? Dit zou immers de nauwkeurigheid en efficiëntie kunnen verbeteren.
Volgens AI-ontwikkelaars is dit een bewuste keuze vanwege ethiek, privacy en veiligheid. Maar hoe relevant zijn deze zorgen bij specifieke AI-tools (zoals beeldgenerators) die weinig tot geen persoonlijke gegevens verwerken?
Kunnen we niet meer controle en feedbacksystemen krijgen om AI beter te sturen, zonder dat dit grote risico's met zich meebrengt?
Ik begrijp dat ethiek belangrijk is, en Asimovs robotwetten bieden een interessante filosofische basis. Maar in de praktijk lijken AI-systemen vaak te generiek en niet gericht op gebruikersbehoeften. Zou een AI die lokaal leert (bijvoorbeeld je voorkeuren onthoudt) een oplossing kunnen bieden? Of is er een andere manier om AI gebruiksvriendelijker te maken?

Ik ben benieuwd naar jullie gedachten over:

Het balans tussen ethiek/veiligheid en gebruiksvriendelijkheid van AI.
Hoe AI-tools verbeterd kunnen worden zonder privacy of veiligheid in gevaar te brengen.
Of real-time leren technisch en ethisch haalbaar is.

Als licht valt ligt licht, maar hoe kan iets zo licht als licht nu vallen? Verlicht mij.


Acties:
  • +1 Henk 'm!

  • CVTTPD2DQ
  • Registratie: Augustus 2019
  • Laatst online: 15:36
Waar je tegenaan loopt, naast het feit dat AIs niet hoeven te doen wat je zegt, is de grootte van het contextvenster. Bij de gangbare taalmodellen is het zo dat de CPU- en geheugenkosten van het draaien van een model kwadratisch toenemen hoe groter het venster wordt; wil je een venster van 200 tokens, dan is dat 4x zo duur als 100 tokens. Wil je 2000 tokens, dan is het 400x zo duur.

Om kosten te besparen zullen de meeste gangbare taalmodellen, en zeker de gratis varianten, met een klein contextvenster draaien. Het merkbare effect ervan is dat ze maar een klein kortetermijngeheugen hebben. Je kunt ze bijvoorbeeld niet vragen om een boek samen te vatten, ze zijn het begin alweer vergeten voordat ze halverwege het eerste hoofdstuk zijn.

Het trainen van AI-modellen is een CPU-intensief proces. De bezwaren zijn helemaal niet van ethische aard, het is kostentechnisch totaal niet rendabel om een model real-time te trainen voor de tijdelijke wensen van één gebruiker.

Er zijn best interessante ethische vraagstukken te verbinden aan (al dan niet bestaand/toekomstig) AI. Maar de huidige ontwikkelaars van AI hangen vooral lulverhalen op om de gebrekkige capaciteiten van hun tekstverwerkers (want meer zijn het niet) te verbloemen.

Acties:
  • 0 Henk 'm!

  • merlin_33
  • Registratie: September 2002
  • Laatst online: 14-07 10:50
Ja zo begrijp ik waarom AI soms niet helemaal doet wat je zou verwachten. Dat over de kosten en het beperkte contextvenster is logisch maar ik voel me wel genaaid, dat roept bij mij een paar vragen op.

Wat denk je van een systeem waarbij AI lokaal bepaalde voorkeuren of instructies opslaat? Zo’n hybride aanpak zou misschien een goede oplossing kunnen zijn. Het hoeft dan niet steeds opnieuw getraind te worden, maar kan toch binnen een specifiek domein slimmer en efficiënter werken. Denk je dat dit technisch haalbaar is? Of lopen we ook hier tegen uitdagingen aan, zoals kosten of praktische beperkingen?

Je zegt dat de bezwaren tegen real-time leren vooral te maken hebben met kosten. Maar ik hoor vaak ethische argumenten van AI-ontwikkelaars, zoals zorgen over privacy en veiligheid. Daarnaast lijken er weinig feedback mogelijkheden te zijn en lijkt er niets mee gedaan te worden. Hoe zie jij dat? Is een model af en wordt er geld mee verdiend tot er weer een update komt? Is ethiek in de praktijk echt een belangrijke factor, of wordt het vooral gebruikt als een soort marketingstrategie om de technische beperkingen te verhullen?

Je noemt AI-modellen 'tekstverwerkers', en dat vind ik een interessante manier om ernaar te kijken. Maar wat denk jij dat de volgende stap is in de evolutie van AI? Hoe kunnen we deze 'tekstverwerkers' transformeren tot tools die beter inspelen op wat gebruikers echt nodig hebben? Zijn er ontwikkelingen waar jij veel van verwacht?

Ik ben ook benieuwd wat anderen hierover vinden! Is het oplossen van de beperkingen van AI vooral een technische uitdaging, zoals het vergroten van het contextvenster en het verlagen van kosten? Of speelt ethiek en privacy toch een grotere rol dan we misschien denken? En hoe zien jullie de toekomst van AI? Gaat het meer gepersonaliseerd worden, of blijven we werken met generieke modellen?

Als licht valt ligt licht, maar hoe kan iets zo licht als licht nu vallen? Verlicht mij.


Acties:
  • 0 Henk 'm!

  • Kurkentrekker
  • Registratie: Januari 2003
  • Niet online
Je wil als leverancier ook niet dat het systeem leert van de gebruiker, want voor je het weet praat hij onzin na, waar jij vervolgens verantwoordelijk voor bent. Ken je die AI nog die binnen de kortste keren de holocaust ontkende?

Binnen een organisatie zie ik minder belemmeringen om een AI te laten leren van de gebruiker. Maar mijns inziens heeft het allemaal niet zozeer met ethiek te maken, eerder met praktische overwegingen en aansprakelijkheid.

Acties:
  • 0 Henk 'm!

  • merlin_33
  • Registratie: September 2002
  • Laatst online: 14-07 10:50
Kurkentrekker schreef op zaterdag 5 juli 2025 @ 16:53:
Je wil als leverancier ook niet dat het systeem leert van de gebruiker, want voor je het weet praat hij onzin na, waar jij vervolgens verantwoordelijk voor bent. Ken je die AI nog die binnen de kortste keren de holocaust ontkende?

Binnen een organisatie zie ik minder belemmeringen om een AI te laten leren van de gebruiker. Maar mijns inziens heeft het allemaal niet zozeer met ethiek te maken, eerder met praktische overwegingen en aansprakelijkheid.
Dat gaat zeker op voor gebruik bij ChatGPT, Deepseek en dergelijke.
Maar werk ik bijvoorbeeld met beeldgeneratie zoals Canva, Flux Dall E en dergelijke mis ik wel degelijk sturing. Het maakt mij niet uit als ik geen hakenkruizen of porno mag maken, wat dan wel weer een beperking is die met ethiek te maken heeft. Maar al ik bijvoorbeeld een logo wil maken met 5 gezichten die verschillende kanten opkijken krijgt geen enkel model dit voor elkaar. Het lukt vaak niet eens om uberhaubt 5 gezichten af te beelden het gaat vaak in willekeur. Met de gratis Chatgpt die je een aantal afbeeldingen op Dall E laat maken kun je nog bijsturen door te zeggen hoeveel gezichten zie jij? Bij Canva kun je niet eens feedback geven om je gegenereerde afbeeldingen. In die zin is het geen gek idee dat je kunt bijsturen waardoor de Ai leert om taken beter uit te voeren.
Wellicht kun je dit wel goed doen als je met local Ai op bijvoorbeeld LM Studio of via Hugging Face Modellen gaat draaien?

Als licht valt ligt licht, maar hoe kan iets zo licht als licht nu vallen? Verlicht mij.


Acties:
  • +3 Henk 'm!

  • Stukfruit
  • Registratie: Oktober 2007
  • Niet online
... valt me op dat ze vaak niet goed reageren op specifieke instructies
Zit daar niet een misverstand in? Een taalmodel reageert niet. Het produceert domweg aan de hand van jouw input + de input uit het model en de lagen die ertussen zitten om betreffende data te transformeren naar iets wat als bruikbaar kan worden gezien.

De software die het model draait reageert. Via MCP voor tooling, via feature extraction die door mensen bedacht en geschreven wordt om patronen te herkennen, via tagging (ook door mensen), via <vul maar in>.

In andere woorden: het vragen om gezichten die verschillende kanten opkijken, of andere vormen van controle over de output, is in principe iets wat geprogrammeerd moet worden. Direct of indirect.

No "I" in AI ;)

TL;DR: mocht ik het goed gelezen hebben en je met de titel van dit topic inderdaad wil vragen waarom zaken zoals jij deze benoemt (randsituaties zoals bv. het herkennen van gezichten die verschillende kanten opkijken) er niet zomaar (zeker realtime) bij kunnen komen, dan is het antwoord simpel: dat komt niet doordat er een probleem met ethiek is.

Het komt doordat zulke zaken direct of indirect (ligt aan de gebruikte oplossing) vooralsnog gewoon met menselijke handen op het keyboard en op basis van de output van menselijke hersenen bedacht en geprogrammeerd worden.

De marketing van types zoals Sam Altman "moet" je los zien van de achterliggende tech. Wat zij zeggen is niet hoe het achter de schermen werkt.

Dat zit wel Schnorr.


Acties:
  • +1 Henk 'm!

  • Kurkentrekker
  • Registratie: Januari 2003
  • Niet online
Het feit dat leveranciers van AI toepassingen die jij noemt je geen porno of nazipropaganda laten maken heeft niets met met de ethiek van het model te maken. Het komt gewoon omdat het bedrijf het gezeik niet wil wat dat oplevert.

Als Open AI ook maar enig ethisch besef had dan hadden ze hun model niet op deze manier in de markt gezet, niet allemaal content gestolen, en hun human reinforced learning een heel stuk anders aangepakt.
Pagina: 1