Het probleem met LLM's is dat ze voortkomen niet uit deterministische logica, maar uit de probabilistische statistiek. Het draait om waarschijnlijkheden. Dat is ook waar de hallucinaties vandaan komen, de LLM produceert een antwoord gebaseerd op het meeste waarschijnlijke gegeven dat op dat moment in de dataset zit.
En daar zit hem ook het grootste probleem, de LLM weet niet wat de betrouwbaarheid is van de eigen data set. De enige manier nu om iets te kunnen voorspellen over betrouwbaarheid is door te kijken op welke data een LLM getrained is. Hoe betrouwbaarder de input, des te betrouwbaarder is de output.
Je ziet hoe nu dan ook dat men steeds grotere datasets probeert aan te verwerken, men scraped het internet er voor af, maar dat geeft geen controle over de betrouwbaarheid van data.
En criteria voor ene het beoordelen betrouwbaarheid is een moeilijk probleem, waar de wetenschap al eeuwen mee worstelt. Plus veel informatie wordt door mensen ideologisch benaderd. AI heeft hier zelf geen capaciteiten voor.
Je ziet dan ook dat de huidige AI modellen goed werken in gestructureerde en begrensde omgevingen, zoals programmeertalen, deze kennen rigide regels en zijn deterministisch. Echter hoe meer je op het terrein komt van abstracties en synthese en correlatie/causaliteit van informatie zoals mensen dat doen, dan zie dat nog niet mogelijk is.
Er wordt in bepaalde kringen AGI gehyped, maar dat zou juist moeten doen wat de mens doet, daar zijn tot nu toe nog geen doorbraken in.
En daar zit hem ook het grootste probleem, de LLM weet niet wat de betrouwbaarheid is van de eigen data set. De enige manier nu om iets te kunnen voorspellen over betrouwbaarheid is door te kijken op welke data een LLM getrained is. Hoe betrouwbaarder de input, des te betrouwbaarder is de output.
Je ziet hoe nu dan ook dat men steeds grotere datasets probeert aan te verwerken, men scraped het internet er voor af, maar dat geeft geen controle over de betrouwbaarheid van data.
En criteria voor ene het beoordelen betrouwbaarheid is een moeilijk probleem, waar de wetenschap al eeuwen mee worstelt. Plus veel informatie wordt door mensen ideologisch benaderd. AI heeft hier zelf geen capaciteiten voor.
Je ziet dan ook dat de huidige AI modellen goed werken in gestructureerde en begrensde omgevingen, zoals programmeertalen, deze kennen rigide regels en zijn deterministisch. Echter hoe meer je op het terrein komt van abstracties en synthese en correlatie/causaliteit van informatie zoals mensen dat doen, dan zie dat nog niet mogelijk is.
Er wordt in bepaalde kringen AGI gehyped, maar dat zou juist moeten doen wat de mens doet, daar zijn tot nu toe nog geen doorbraken in.
"When I am weaker than you I ask you for freedom because that is according to your principles; when I am stronger than you I take away your freedom because that is according to my principles"- Frank Herbert
/f/image/onnYreI9ibgNHeVgkCo6e0Up.png?f=fotoalbum_large)
:no_upscale():strip_icc():strip_exif()/f/image/udLf5KByEr3xHk8RidCWoVqF.jpg?f=user_large)