Het probleem bij professionele inzet is dat je voor iedere vraag steeds weer alle context moet toevoegen. Dat is erg inefficiënt en heeft beperkingen. Fine Tuning is een complex pad en levert vaak meer stijl dan feitenkennis op. Ik volg met interesse de ontwikkeling van Google. Google zet met onderzoek naar architecturen zoals Titans en het MIRAS-framework een stap richting modellen die leren tijdens gebruik. Waar traditionele LLM's statische snapshots zijn van hun trainingsdata, maakt test-time training het mogelijk dat een model zijn eigen parameters bijwerkt terwijl het informatie verwerkt.[...]
Goed punt, dank voor het inzicht. Zeker in een verschuivende nuance door de tijd heen, dat is moeilijk te interpreteren. Beetje gerelateerd, wat ik ervaar is dat door ook de grote context dat contractuele analyse van honderden pagina's met vergelijkingen naar voorgaande versies ook nog steeds moeizaam is. Ik heb er nog geen succesvolle implementaties van gezien, terwijl diverse leveranciers wel van alles hebben beloofd, maar niet waar hebben kunnen maken. Mensen maken er fouten bij, maar LLM's zeker te weten ook...
Met de huidige modellen zie ik AI vooral als hulpmiddel om te structureren door feiten uit informatie te halen te mappen op context en op basis hiervan een standpunt op te bouwen. Daarbij continu verwijzen naar de bronnen zodat het eenvoudig gecontroleerd kan worden. Dit scheelt behandelaars al heel veel tijd.
Ik heb het hierbij trouwens over standaard juridisch werk met min of meer identieke civiele cases. Niet over procedures met een gerechtelijke uitspraak.
[ Voor 5% gewijzigd door Poecillia op 24-01-2026 12:38 ]