Oké Tweakers, ik heb iets dat misschien wat controversieel, maar denkwaardig is.We praten al jaren over LLM’s en grote taalmodellen, maar bijna niemand durft het harde punt te maken:
Wat als AI moet antwoorden als het het niet weet?
En wat als AI zichzelf kan herstructureren bij internal conflict in plaats van te gokken?
Ik hobbie aan een prototype van een AI-architectuur die fundamenteel anders werkt dan transformers:
Belangrijkste principes
Conflict-detectie: Als inputs intern tegenstrijdig zijn → geen output.
Structurele groei: In plaats van training/updaten zoals we nu kennen, ontstaan nieuwe modules (cells) pas wanneer er spanningen zijn.
Consensus-logica: Er wordt alleen een antwoord geaccepteerd als alle relevante interne processen overeenkomen.
Weiger-modus: Geen hallucinaties, geen producties van onzin — alleen output íf er consensus is.
Je kunt het hobbie model vergelijken met een traditionele recurrent-achtige dynamiek of graph-netwerk, maar met expliciete logica én structurele adaptatie.
Wat het nu laat zien
In experimenten ziet het systeem er zo uit dat het bij een conflict rustiger stabiliseert en niet zomaar doorgaat met gokken zoals een transformer dat doet. Dit is geen LLM-hack, maar een fundamenteel andere structuur.
Ik ben benieuwd…
Is er een bestaand model dat iets vergelijkbaars doet?
Of hebben we het hier over een pad richting AI die betrouwbaarder, veiliger en verklaarbaarder is dan wat we nu hebben?
Kan een AI-systeem beter zijn door te weigeren wanneer er onzekerheid is?
Laat maar horen wat jullie denken. Feitelijk is dit níet zomaar een nieuwe model-variant, maar een totaal andere architectuurfilosofie.
Wat als AI moet antwoorden als het het niet weet?
En wat als AI zichzelf kan herstructureren bij internal conflict in plaats van te gokken?
Ik hobbie aan een prototype van een AI-architectuur die fundamenteel anders werkt dan transformers:
Belangrijkste principes
Conflict-detectie: Als inputs intern tegenstrijdig zijn → geen output.
Structurele groei: In plaats van training/updaten zoals we nu kennen, ontstaan nieuwe modules (cells) pas wanneer er spanningen zijn.
Consensus-logica: Er wordt alleen een antwoord geaccepteerd als alle relevante interne processen overeenkomen.
Weiger-modus: Geen hallucinaties, geen producties van onzin — alleen output íf er consensus is.
Je kunt het hobbie model vergelijken met een traditionele recurrent-achtige dynamiek of graph-netwerk, maar met expliciete logica én structurele adaptatie.
Wat het nu laat zien
In experimenten ziet het systeem er zo uit dat het bij een conflict rustiger stabiliseert en niet zomaar doorgaat met gokken zoals een transformer dat doet. Dit is geen LLM-hack, maar een fundamenteel andere structuur.
Ik ben benieuwd…
Is er een bestaand model dat iets vergelijkbaars doet?
Of hebben we het hier over een pad richting AI die betrouwbaarder, veiliger en verklaarbaarder is dan wat we nu hebben?
Kan een AI-systeem beter zijn door te weigeren wanneer er onzekerheid is?
Laat maar horen wat jullie denken. Feitelijk is dit níet zomaar een nieuwe model-variant, maar een totaal andere architectuurfilosofie.