Verwijderd schreef op 12 juni 2004 @ 01:49:
(Bedoel je eigenlijk de demon van Laplace ipv Descartes? Die van Laplace berekent de toekomstige toestand van het heelal uit de huidige toestand, die van Descartes spiegelt deze wereld als illusie voor aan Descartes.)
Die van Descartes: alleen al het genereren van de data die iemand het gevoel moet geven dat hij zijn vinger door het zand beweegt is een onmogelijke opgave, omdat je alle mogelijke bewegingen moet berekenen en de goede op het juiste moment moet sturen. Er zijn teveel mogelijkheden.
Waarom niet bijvoorbeeld (Bayesiaanse) waarschijnlijkheidstheorie?
Daarover staan
hier aardige dingen. Overigens is waarschijnlijkheidstheorie sowieso nuttig bij het 'leerproces' van een AI, maar hij moet bijvoorbeeld met inconsistenties om kunnen gaan, die je nooit kwijt kan in Bayesiaanse theorie.
Sommige mensen noemen dit "physics envy": het idee dat intelligentie in een paar eenvoudige regels te vangen is, zoals ook succesvolle natuurkundige theorieën vele verschijnselen in een paar eenvoudige regels vangen. De menselijke hersenen hebben miljoenen jaren evolutionair ontwerp in zich zitten, en geen andere wezens dan mensen zijn "echt" intelligent; waarom zou zo'n beperkte set eenvoudige regels dus bestaan?
Omdat evolutie ook op een kleine set eenvoudige regels gebaseerd is en het bouwproces van versmolten eicel naar mens ook op een beperkte set eenvoudige regels gebaseerd is. Maar je zal die weinige regels dus vele iteraties lang moeten laten draaien om tot een complexe AI te komen. Ik bedoel niet dat de intelligentie zelf op eenvoudige regels gebaseerd is: het bouwproces van een AI is erop gebaseerd. Of misschien terechter: kan erop gebaseerd worden en is de enige praktische mogelijkheid.
Je lijkt te stellen dat "probeer alles en gooi weg wat niet werkt" de enige methode is waarop we erachter kunnen komen hoe een AI te ontwerpen. Hoe onderbouw je dit?
Waarom zou het onmogelijk zijn om op basis van een verzameling goede theorieën (en door de AI veel dingen te laten leren) een werkende intelligentie in elkaar te zetten? De evolutie heeft ook miljarden jaren erover gedaan om vogels te laten vliegen; wij kunnen vliegtuigen laten vliegen, niet doordat we alles parallel hebben uitgeprobeerd,
Dat ben ik niet met je eens. Menselijke wetenschappers hebben wel degelijk een paar honderd jaar lang parallel allerlei dingen uitgeprobeerd, om 'het beste' te vinden. Ik ben het met je eens dat je niet
alle mogelijkheden hoeft te proberen: je kan slim de mutaties kiezen en de evolutie verslaan qua efficientie (dat is al snel

). Maar heel veel menselijke vindingen blijven ook 'serendipity'. Ik bedoel ook niet dat een AI miljarden jaren nodig heeft: de generaties gaan veel sneller.
maar gewoon omdat we slim genoeg zijn om te ontdekken hoe het kan werken en een verzameling onderdelen tot een systeem samen te voegen op een manier die werkt. Hersenen zijn natuurlijk veel ingewikkelder dan vleugels, maar het is me niet duidelijk dat ze zodanig veel ingewikkelder zijn dat het onmogelijk is om iets kunstmatigs te ontwerpen dat hetzelfde bereikt.
Bij het vliegen van vogels was alleen het ontwerpproces parallel. Maar onze hersenen werken zelf ook parallel. Bovendien is zelf-adaptiviteit een essentieel deel van de werking van de hersenen. Daarmee krijg je een bootstrappingsprobleen, dat alleen met een iteratieve benadering, wat evolutie in feite is, op te lossen is.
Wat me nog veel minder waarschijnlijk lijkt is dat de problemen die zo'n soort ondervindt bij het zich voortplanten en bij sociale interacties veel lijken op die problemen die de mens ondervond in de omgeving waar hij evolueerde.
Natuurlijk zullen er verschillen zijn, maar ik denk dat iets dat lijkt op sexuele voortplanting zich ook onder programmas zou ontwikkelen. Immers, het uitwisselen van werkende brokken programmatuur is veel efficienter dan het random muteren van programmatuur. En ergens zullen ze een eigen dataopslag moeten hebben. Als ze die delen met hun kinderen, dan zijn kinderen direct volwassen. Maar als kinderen net iets anders zijn dan ouders, kunnen ze behoefte hebben aan een anders georganiseerde dataopslag en moeten ze wel zelf alle data vergaren alvorens die op te slaan en ondertussen te reorganiseren. Dan heb je dus ook kinderen. Generaties zullen ontzettend veel sneller gaan, maar als bijvoorbeeld sexuele voortplanting en kinderen denkbaar zijn, dan kunnen sociale interacties in abstracto hetzelfde zijn. Maar als ik hier zo even goed over na zit te denken, dan heb ik eigenlijk geen idee in hoeverre je van concurrentie en bijvoorbeeld ouderliefde kan spreken en of die zouden ontstaan. Laat ik het erop houden dat zaken als 'onrecht' en het daaruit voortkomende 'je recht willen halen' en het daaruit voortkomende 'conlict' als dat niet lukt, in feite heel abstract zijn en slechts interactie tussen twee entiteiten met een bepaald doel nodig heeft om te bestaan. Maar één en ander is sterk afhankelijk van omgevingsfactoren; als men slechts om geheugenruimte concurreert, dan is de omgeving ontzettend homogeen.
Wie een AI ontwerpt door de evolutie na te bootsen, heeft geen idee wat die doelen zullen zijn, behalve dat ze ontstaan zijn uit iets wat succesvol was in de omstandigheden die je simuleerde.
Ervanuitgaande dat onze hersenenen niet veel anders dan een massieve parallelle computer zijn, dan denk ik niet dat AI's tot andere conclusies zullen komen dan wij. Maar we zouden gemakkelijk het slachtoffer van een doctrine-oorlog tussen AI's kunnen worden.
Onze computers zijn nu niet snel genoeg,
Ik denk dat ze dat wel zijn, maar dat we de juiste omstandigheden nog niet gecreeerd hebben. Ik vraag me werkelijk af wat er gebeurt als je een goed veiligheidslek vind en een worm met state-of-the-art AI code erin loslaat op het internet, met als doel te muteren tot efficientere vormen. Zou het vormen vinden die weinig kwaad doen en moeilijk op te ruimen zijn, zodat we hun bestaan zouden tolereren?
Maar bijvoorbeeld Eric Drexler is net teruggekomen op zijn Grey Goo angst en dat ben ik met hem eens. Als programmas willen voortplanten, hebben ze niets aan nanomachines, die individueel te klein zijn om complexe programmatuur te dragen. Legers van die krengen aangestuurd middels signalen zijn denkbaar, maar als middel; nanobots zullen nooit een AI kunnen huisvesten. Hoewel ik me net bedenk dat ze misschien swarm intelligence zouden kunnen krijgen...
Meestal mompelt men in dit verband iets over
Asimov's wetten van de robotica, en blijft het daarbij. Die werken niet, en het echte probleem is veel dieper.
In een /. draad zei laatst iemand: we zouden we gek zijn om die wetten daadwerkelijk in een robot te stoppen: Asimov heeft beschreven wat voor hopeloze problemen ze opleveren. Dat is misschien de reden dat hij ze gelanceerd heeft: om boeken te verkopen

.