DeKoetsier schreef op maandag 13 mei 2024 @ 10:57:
Sam Altman die waarschuwt dat we ons te weinig zorgen maken.
Waar Sam Altman vorig jaar nog in een modus was van:
“he's a "little bit scared" of ChatGPT, warning his company's creation could "eliminate" many jobs.”
Is het nu:
“GPT- 4 didn't have this huge detectable impact on the economy, and so people were kind of like, "Oh well, we were too worried about that, and that's not a problem,"
"I have a fear that we just won't take that one seriously enough going forward, and it's a massive, massive issue."
Dit en meer van
Businessinsider
Eerst zien, dan geloven.
Sam Altman heeft natuurlijk een belang in het pitchen van AI, dus signalen van hem zou ik iig met een flinke korrel zout nemen. Idem dito voor alle tech-bro's die AI de hemel in prijzen en een belang hebben bij het verschuiven van macht/controle richting big-tech.
Er is al een paper die een
negatieve trend ziet in code/software kwaliteit op Github sinds de introductie van CoPilot. Hieruit haal ik dat iig de huidige vorm van AI kwalitatief niet goed genoeg is waarvoor het ingezet wordt.
Één van de grootste problemen is dat er een feedbackloop ontstaat tussen de AI en de trainingsdata. AI maakt data -> wordt het model op getrained -> die maakt weer data -> wordt het model weer op getrained...
Toen we met ons researchclubje 10 jaar geleden aan het mijmeren waren over AI in healthcare zagen we dit al als een risico, omdat zo'n feedbackloop een bias/self-fulfilling-prophecy creëert in de besluitvorming bij behandelingen... die wil je niet hebben.
Een ander probleem is dat de huidige LLM's niet in staat zijn om abstracties te maken. Dat wil zeggen dat een LLM niet "inziet" dat een zebra op een paard lijkt, tenzij er specifiek getrained wordt op zebra's. Hierdoor ontstaat aan de voorkant van het proces het probleem dat de hoeveelheid data die nodig is voor training exponentieel toe neemt.
Ik verwacht dat dit probleem wel ooit opgelost gaat worden, maar ik schat in niet spoedig... in mijn beperkte kennis van LLM's is abstractie en integratie (e.g. de vorm van een paard + zwarte en witte strepen = zebra) geen onderdeel van hoe LLM's getrained worden of werken, en ik verwacht dat er een nieuwe doorbraak/revolutie nodig gaat zijn om dit mogelijk te maken.
Daarbij wil ik benadrukken dat AI niet één ding is. AI voor chatgpt werkt fundamenteel anders dan AI voor audio processing, welke weer anders is dan AI voor classificatie. OpenAI knoopt van allerlei technieken aan elkaar om deze producten te maken.
Om je een beeld te geven: zo'n 15+ jaren geleden heb ik gewerkt aan een "AI" voor audio classificatie (is iets klassiek of heavy metal). Voordat er überhaupt AI-stuffs werden gedaan zat er een berg aan signaalverwerking/analyse voor. Dus een sloot aan FFT's, beat detecties, variatie in tonaliteit, variatie in volume... en veel meer wat ik me niet meer herinner. Dit noemen we "features" waarop het model getrained wordt.
Door van veel muziek de "features" te extraheren werd een
Bayesian model/classifier getrained. Door de features van andere muziek te extraheren, en deze te vergelijken met je getrainde bayesian model kreeg je een probability voor een match met een bepaalde muziekcategorie.
De accuracy was OK-ish voor de hoeveelheid features en de hoeveelheid trainingsdata: ~50% met ~100 muziekstukken aan trainingsdata... aantal features weet ik niet meer, maar het waren lage tientallen. Maar de kunst was om 1) de juiste features te definiëren, 2) de performance te halen. Performance die nodig was voor training en classificatie was (dacht ik) kwadratisch met de hoeveelheid categorieën en features (2x meer features = 4x meer performance nodig, 4x meer features = 16x meer performance nodig).
Mijn take-away hier is dat voor het trainen van een AI specifieke domeinkennis nodig is. Het is geen kwestie van data er in, en AI er uit... de features definieren en maken vereiste specifieke en specialistische kennis over het domein muziek en signaalanalyse. Dus huidige AI-technieken toepassen op een domein waar het niet op getrained is is helemaal niet zo triviaal als big-tech je wilt laten denken.
Is ChatGPT indrukwekkend? Ja. Maak ik me zorgen dat AI ons allemaal op korte termijn gaat vervangen? Nee.