Het werd mij onlangs duidelijk dat de huidige AI modellen zoals ze zijn ontworpen stiekem het einde betekenen van een grote hoeveelheid (meerderheid) van software patenten, en dan vooral van code/algoritmes die een taak uitvoeren die met taal en/of coding te maken heeft.
Daarnaast, en dat is wellicht zelfs belangrijker, leent de architectuur van Deep Learning/Trained AI systemen, waarbij de "keuzes" die het systeem afhangen van hoe het zijn eigen neurale netwerk inricht en de interne processen niet inzichtelijk zijn (aka Black Box) zich bij uitstek voor het kunnen schenden van patent-rechten zonder dat het te bewijzen is dat de input-output relatie van dat AI systeem NIET het resultaat is van de training data.
Voorbeeld. Stel - ik heb een set algoritmes bedacht die een lap tekst nemen en daar allerlei errors in verbeteren zoals hoofdletters, punten, comma's, spelfouten, etc. Deze combinatie van algoritmes is snel, heeft een 0.2% false positive/negative ratio, en het werkt prima. Ik patenteer deze "uitvinding" en voila, mag ik even vangen!
OK - nu is er ChatGPT en ik vermoed dat als je die een lap tekst toeschuift en vraagt of hij zo'n soort taak er op wil loslaten, hij dit ook vrij goed zal doen, wellicht net zo snel, en zonder gebruik van de gepatenteerde algoritmes. Hij kan dit doen door zijn training data die miljarden voorbeelden bevatte. Brute force dus, more less
Nu - dat je probleem X op manier A (met snelle gepatenteerde software) of B (met de hand/met tragere/slechtere systemen) kan oplossen - prima. Maar het is hier even van belang om pragmatisch vast te stellen wat er nou eigenlijk is gepatenteerd... want in bijna alle gevallen is dat de snelheid en de kwaliteit van de gewenste resultaten. Die snelheid en precisie wordt dan uiteraard bereikt door een aantal stappen uit te voeren (en het patent beschermt het toepassen van die stappen) maar de reden dat iemand een patent in licentie zou willen nemen is toch nagenoeg altijd de door de software geboden snelheid, kwaliteit en performance.
Het zal een bedrijf dat dikke cash heeft betaald voor een mooi stukje gepatenteerde software worst wezen of ze hun gewenste resultaten verkrijgen door de toepassing van een reeks ingenieuze stappen, of door een AI taalmodel - zolang ze maar ongeveer net zo snel en goed zijn. Dat zal steeds meer en steeds vaker het geval zijn - AI die taken die door gepatenteerde software werden gedaan overnemen, zodoende die patenten goeddeels nutteloos makend.
Dat is verder niet zo bijzonder... Maar er is een tweede issue dat voor software-patenthouders weleens een veel grotere nachtmerrie zou kunnen worden - namelijk dat je gepatenteerde uitvindingen ook gewoon kan "stelen", de routines/algoritmes kan "hard-coden" in het AI systeem en vervolgens claimen dat de door de AI geleverde output het resultaat is van de training data en hoe dat systeem zijn neurale netwerk heeft ingericht. En dat kan je nagenoeg niet bewijzen.
Want ja - het is een black box. Zelfs de makers van die systemen weten niet precies hoe ze tot conclusie A of B komen. En laat dat nou precies het soort feature zijn die "plausible deniability" kan verschaffen voor het misbruiken van gepatenteerde/beschermde software! Ik zie echt niet hoe je dit zou kunnen voorkomen. Uiteraard moet je wel een beetje slim te werk gaan - dus de training data moet relevant zijn voor het soort gepatenteerde software dat je er in wil zetten, en er zullen best wat gepatenteerde applicaties bestaan waarbij het zeer onwaarschijnlijk is dat je de resultaten zou kunnen nabootsen met training data... maar dan nog blijven er duizenden stukje gepatenteerde software over die je op die manier zou kunnen implementeren.
Het is daarnaast wellicht wel een ietwat komieke manier om meer "financiering" te verzorgen voor de ontwikkeling van software en tools die kunnen helpen met Explainable AI... want ja, de advocaten van de binnenkort zeer ongelukkige patent-houders zullen natuurlijk koste wat het kost willen proberen te bewijzen dat een of ander AI systeem stiekem wel hun patent aan het schenden is
Daarnaast, en dat is wellicht zelfs belangrijker, leent de architectuur van Deep Learning/Trained AI systemen, waarbij de "keuzes" die het systeem afhangen van hoe het zijn eigen neurale netwerk inricht en de interne processen niet inzichtelijk zijn (aka Black Box) zich bij uitstek voor het kunnen schenden van patent-rechten zonder dat het te bewijzen is dat de input-output relatie van dat AI systeem NIET het resultaat is van de training data.
Voorbeeld. Stel - ik heb een set algoritmes bedacht die een lap tekst nemen en daar allerlei errors in verbeteren zoals hoofdletters, punten, comma's, spelfouten, etc. Deze combinatie van algoritmes is snel, heeft een 0.2% false positive/negative ratio, en het werkt prima. Ik patenteer deze "uitvinding" en voila, mag ik even vangen!
OK - nu is er ChatGPT en ik vermoed dat als je die een lap tekst toeschuift en vraagt of hij zo'n soort taak er op wil loslaten, hij dit ook vrij goed zal doen, wellicht net zo snel, en zonder gebruik van de gepatenteerde algoritmes. Hij kan dit doen door zijn training data die miljarden voorbeelden bevatte. Brute force dus, more less
Nu - dat je probleem X op manier A (met snelle gepatenteerde software) of B (met de hand/met tragere/slechtere systemen) kan oplossen - prima. Maar het is hier even van belang om pragmatisch vast te stellen wat er nou eigenlijk is gepatenteerd... want in bijna alle gevallen is dat de snelheid en de kwaliteit van de gewenste resultaten. Die snelheid en precisie wordt dan uiteraard bereikt door een aantal stappen uit te voeren (en het patent beschermt het toepassen van die stappen) maar de reden dat iemand een patent in licentie zou willen nemen is toch nagenoeg altijd de door de software geboden snelheid, kwaliteit en performance.
Het zal een bedrijf dat dikke cash heeft betaald voor een mooi stukje gepatenteerde software worst wezen of ze hun gewenste resultaten verkrijgen door de toepassing van een reeks ingenieuze stappen, of door een AI taalmodel - zolang ze maar ongeveer net zo snel en goed zijn. Dat zal steeds meer en steeds vaker het geval zijn - AI die taken die door gepatenteerde software werden gedaan overnemen, zodoende die patenten goeddeels nutteloos makend.
Dat is verder niet zo bijzonder... Maar er is een tweede issue dat voor software-patenthouders weleens een veel grotere nachtmerrie zou kunnen worden - namelijk dat je gepatenteerde uitvindingen ook gewoon kan "stelen", de routines/algoritmes kan "hard-coden" in het AI systeem en vervolgens claimen dat de door de AI geleverde output het resultaat is van de training data en hoe dat systeem zijn neurale netwerk heeft ingericht. En dat kan je nagenoeg niet bewijzen.
Want ja - het is een black box. Zelfs de makers van die systemen weten niet precies hoe ze tot conclusie A of B komen. En laat dat nou precies het soort feature zijn die "plausible deniability" kan verschaffen voor het misbruiken van gepatenteerde/beschermde software! Ik zie echt niet hoe je dit zou kunnen voorkomen. Uiteraard moet je wel een beetje slim te werk gaan - dus de training data moet relevant zijn voor het soort gepatenteerde software dat je er in wil zetten, en er zullen best wat gepatenteerde applicaties bestaan waarbij het zeer onwaarschijnlijk is dat je de resultaten zou kunnen nabootsen met training data... maar dan nog blijven er duizenden stukje gepatenteerde software over die je op die manier zou kunnen implementeren.
Het is daarnaast wellicht wel een ietwat komieke manier om meer "financiering" te verzorgen voor de ontwikkeling van software en tools die kunnen helpen met Explainable AI... want ja, de advocaten van de binnenkort zeer ongelukkige patent-houders zullen natuurlijk koste wat het kost willen proberen te bewijzen dat een of ander AI systeem stiekem wel hun patent aan het schenden is
SuperMicro X11DAi-N Dual Gold 6140 36C/72T 320GB A2000 2x WD770 1TB, 4K + 2x QHD