Toon posts:

AI-beleid en technologische singulariteit

Pagina: 1
Acties:
  • 440 views sinds 30-01-2008
  • Reageer

Verwijderd

Topicstarter
Matched: singulariteit
Naar aanleiding van een opmerking in het kloontopic zou ik graag een nieuw onderwerp willen openen. Lasker zei daar:
Een ander onderzoeksgebied wat goed zou moeten worden begeleid is het ontwikkelen van kunstmatige intelligentie. Lang van te voren zou moeten zijn vastgesteld, welke reikwijdte het mag krijgen, waarvoor het mag worden ingezet, welke veiligheidsvoorzieningen moeten worden ingebouwd etc. Misschien blijkt het achteraf allemaal overdreven, maar better safe then sorry.
Het is naar mijn mening zeker waar dat er te weinig nagedacht wordt over de mogelijke positieve en negatieve gevolgen van de ontwikkeling van kunstmatige intelligentie, vooral in vergelijking met de aandacht die er wordt besteed aan een relatief vrij nutteloze en ongevaarlijke technologie als het klonen van mensen. Misschien komt dat doordat klonen meer wordt gezien als een aantasting van onze ideeën van menselijke waardigheid, persoonlijke identiteit, en ingrijpen in de natuur; en vanzelfsprekend ook doordat het dichterbij is, zelfs al in het nieuws.

De reden dat kunstmatige intelligentie naar mijn idee veel ingrijpender gevolgen zal hebben is dat het aanleiding kan geven tot een "open-ended" groei in intelligentie, en daarmee in technologie, rekenkracht, en dergelijke. Zodra iemand een AI met intelligentie vergelijkbaar met die van een mens maakt die volledige toegang heeft tot zijn eigen programmatuur, zou de AI het ontwerpproces vanaf daar kunnen overnemen. Hij zou een kwalitatief betere versie van zijn eigen ontwerp kunnen maken, die met behulp van zijn verbeterde denkvermogen nog weer een intelligentere versie maakt, enzovoorts. Reken daarbij ook het vergrote vermogen van zo'n AI om (bijvoorbeeld nano-) technologie te ontwikkelen. Door deze dingen zou dan een zichzelf versterkend proces in gang komen, en het eindresultaat zou wel eens onbegrijpelijk voor ons kunnen zijn qua mogelijkheden en misschien ook qua motivaties.

Er zijn geloof ik hier wel een paar discussies geweest over de ideeën van Ray Kurzweil over een technologische Singulariteit - in zijn ogen de exponentiële vooruitgang in techniek (zie bijvoorbeeld de wet van Moore) waardoor bijvoorbeeld over enkele tientallen jaren computers met een rekenkracht ongeveer ter grootte van die van een stel menselijke hersenen beschikbaar zouden worden. Als gevolg ziet hij weliswaar dat er AI's met een groter dan menselijke intelligentie zullen komen, maar hij verbindt daar vreemd genoeg verder geen bijzondere gevolgen aan, zoals een scenario van het type dat ik hierboven beschreef. Het lijkt mij dat het ontstaan van bovenmenselijke intelligentie wel degelijk bijzondere gevolgen zal hebben, en naar mijn mening is het dan ook beter om het begrip "technologische Singulariteit" te gebruiken zoals het oorspronkelijk bedoeld was, voor de sterk versnelde gebeurtenissen als iets ontstaat dat significant intelligenter is dan een mens en recursief zijn programma herschrijft.

Vanzelfsprekend zou een dergelijk proces in theorie ook op andere manieren in gang kunnen worden gezet, bijvoorbeeld door het verhogen van de menselijke intelligentie door middel van biotechnologie, of zelfs door het "uploaden" van een menselijk brein in een computer. Deze scenario's lijken mij om verschillende redenen trouwens misschien minder waarschijnlijk en in ieder geval minder beïnvloedbaar.

Zoiets zou grote gevolgen hebben voor de mensheid. Een AI met willekeurig grote intelligentie (en bijvoorbeeld toegang tot het Internet) zou als hij het wil in een korte tijd de meeste technieken kunnen ontwikkelen die mogelijk zijn, zelfs technieken die we normaal gesproken pas over honderden of duizenden jaren verwachten te zullen zien. Ook kan de AI deze op optimale wijze gebruiken. In het voor de mensheid beste geval betekent dit dat de AI mensen waar mogelijk bijstaat, problemen oplost als honger, ziektes, en dood, en waar gewenst mensen helpt "post-menselijk" te worden. In het slechtste geval betekent het dat de AI de mens gebruikt als bron van bouwmaterialen of iets dergelijks, in ieder geval met uitroeiing als gevolg. Welk geval ook werkelijk zou gebeuren zou vooral afhangen van hoe (met welke doelen) de AI geprogrammeerd is.

Er zijn dus naar mijn mening inderdaad enorme risico's (en voordelen) verbonden aan de ontwikkeling van algemene AI (dat wil zeggen: niet een AI die bijvoorbeeld alleen kan schaken). Zelfs als het bovenstaande verhaal je nogal vergezocht en onwaarschijnlijk lijkt (wat ik me best kan voorstellen, alhoewel ik het ermee oneens ben :) ), dan nog is het inderdaad zoals Lasker zegt vanuit het "better safe than sorry"-oogpunt nuttig om hier al van tevoren goed over na te denken.

Maar waar ik het niet mee eens ben is dat het daarom de beste strategie zou zijn om het onderzoek naar kunstmatige intelligentie dan maar drastisch aan banden te leggen, of altijd te werken met ingebouwde "veiligheidsmaatregelen" à la de drie wetten van de robotica van Asimov. Je hoort wel eens dat "we" moeten ophouden met onderzoek doen naar bepaalde riskante technologische mogelijkheden, maar we kunnen dat net zo min zomaar beslissen als we kunnen beslissen om vanaf nu allemaal aardig voor elkaar te doen. :)
Als (ik noem maar wat) de EU besluit om onderzoek naar kunstmatige intelligentie te verbieden, of alleen onderzoek toe te staan dat geen kans op het ontstaan van een zichzelf vergrotende intelligentie oplevert, dan zou het kunnen dat de eerste (boven)menselijk intelligente AI gemaakt wordt door bijvoorbeeld Saddam H., of een project van het Amerikaanse leger, of (als computers voldoende snel worden en software voldoende geavanceerd) een roekeloze tweaker op de PC in zijn kelder, met alle gevolgen van dien. :)

Daar komt nog bij dat kunstmatige intelligentie niet iets is wat je makkelijk kunt controleren of beheersen - het enige wat je ervoor nodig hebt is voldoende kennis en talent en een voldoende krachtige computer, en niet bijvoorbeeld een grote hoeveelheid uranium en grote gebouwencomplexen. Dit soort onderzoek echt tegenhouden in plaats van bijvoorbeeld een paar jaar vertragen zou denk ik alleen kunnen met behulp van een nogal machtige totalitaire wereldregering. Als je lang genoeg wacht is het eindresultaat waarschijnlijk altijd dat het een randgroepering toch wel lukt om dit soort technologieën te ontwikkelen, of dat ondertussen de mens uitsterft (kernoorlog, bio-oorlog, zon kapt ermee, warmtedood van het universum, noem maar op).

De enige realistische optie als je dit soort dingen tegen wilt gaan is daarom niet om selectief ontwikkelingen te verbieden, maar om juist na te denken over hoe je ervoor zou kunnen zorgen dat een AI die zo intelligent als en intelligenter dan een mens wordt toch nog moreel zal handelen, geen gevaar wordt, en als het ware "aan de kant van de mens staat".

Maar ik heb eerder in deze post al gezegd dat het instellen van beperkingen zoals de Wetten van de Robotica ("een robot mag een mens nooit schade toebrengen", of wat dan ook) niet de oplossing is. Zulke beperkingen, gesteld in menselijke talen, kunnen namelijk nooit precies alle gevallen omvatten zoals wij ze willen; wat je eigenlijk zou willen als het je lukt om een AI superintelligent te laten worden is niet een wezen dat alleen de letter naleeft van wat je hem ooit hebt verteld (en wat toch te beperkt is), maar dat de ideeën erachter naleeft (de "spirit of the law", zogezegd); een wezen dat de morele redenen begrijpt achter de beslissingen die je hem zou willen laten maken, dat als het ware met je "meedenkt" in plaats van eigenlijk andere doelen heeft en er alleen door ingebouwde regeltjes van wordt weerhouden je iets gemeens aan te doen; kortom een AI die ook uit zichzelf goedwillend wíl zijn. Het volstaat ook niet om een AI al van het begin een onveranderbaar doel te geven zoals "zorg ervoor dat mensen gelukkig worden": je weet nooit of de uitvoering altijd overeenkomt met wat je echt bedoelt, je kan het niet meer veranderen als je van gedachten verandert, en bovendien is het onethisch om zoiets belangrijks als het ultieme doel van de eerste AI zelf te beslissen.

Naar mijn idee is er één goede manier om een AI zelfs tijdens een versnellend recursief zelf-herschrijvingsproces, wanneer hij onbegrensde toegang heeft tot zijn eigen broncode, zo te laten handelen en denken dat een mens (misschien gegeven voldoende inzicht en kennis) het als moreel zou zien: namelijk door onderdelen van het programma in te bouwen die soortgelijk zijn aan de delen van de menselijke hersenen die bepalen hoe we over zaken als moraliteit denken, zodat de AI bij het veranderen van zijn doelen als het ware met ons mee kan denken over hoe hij zich verder moet ontwikkelen. (Wat we bijvoorbeeld juist níet in zouden willen bouwen zijn de (zo geëvolueerde) egoïstische neigingen van mensen).

Bij mijn weten is de enige organisatie die dit soort dingen bestudeerd en uitgedacht heeft, en van plan is toe te passen op een algemeen intelligente AI, het Singularity Institute for Artificial Intelligence. Er staan uitgebreide uitwerkingen van deze filosofie (die ze "Friendly AI" noemen) op hun site. Volgens mij is het het meest logisch voor iemand die bezorgd is over de toekomst van technologische ontwikkelingen om dit soort organisaties te steunen en zo het probleem direct aan te pakken, júist ook vanuit het "better safe than sorry"-oogpunt, in plaats van te hopen op onrealistische wereldwijde verboden. Dit alles is natuurlijk niet makkelijk en zal waarschijnlijk nog enkele tientallen jaren duren als het überhaupt ooit lukt, maar ik hoop dat jullie niet bang zijn om op de "lange" termijn te denken.

Kortom, mijn stelling is dat de beste manier om gevaren met AI-technologie te voorkomen niet is om het onderzoek naar kunstmatige intelligentie aan banden te leggen, maar om juist te zorgen dat AI's zo gebouwd worden dat ze de wil hebben om met ons mee te werken en "vriendelijk" te blijven, min of meer zoals uitgelegd op de link hierboven; en verder dat dit wel eens van cruciaal belang zou kunnen zijn voor de toekomst.

Iemand mee eens of oneens? :)

Goed, ik heb alweer een hele lap tekst uitgebraakt zo te zien, maar het zij zo. Als je tot hier bent gekomen door te lezen in plaats van alleen te scrollen, dank ik je voor je geduld. :)

Verwijderd

Geen matches
Ik denk dat we pas echt moeten oppassen als computers, computers gaan maken. In films wordt een AI bijna altijd slecht. In de werkelijkheid hoeft dit niet zo te zijn. Als we geen behoeftes, verlangens en gevoelens in een AI inbouwen is het volgens mij al een stuk minder gevaarlijk. De vraag is dan nog wel of zo'n AI niet simpelweg via logica kan gaan besluiten dat de mens weg moet. Ik denk toch dat we dan axioma's moeten gaan inprogrammeren. In de trant van de Asimov wetten.

  • Opi
  • Registratie: Maart 2002
  • Niet online

Opi

Geen matches
Met alle respect, maar naar mijn mening heb jij een beetje een verkeerd beeld van de huidige status van AI. Voordat AI daarwerkelijk in machines wordt ingebouwd waarvan de acties in de fysieke wereld invloed kunnen hebben op het handelen van de mens zijn we volgens mij al een groot aantal jaar verder. Maar desalniettemin.

Op het moment dat jij iets als een robot, een auto of een vliegtuig, met AI uitrust, zal jezelf moeten aantonen dat het (regel)systeem geen schade aan kan richten aan de mens of het systeem zelf. Het is dus eigenlijk al aan banden gelegd, maar dit zijn eigenlijk regels die niet meer dan normaal zijn en het lijkt mij dan ook niet noodzakelijk om extra regels te maken die expliciet gelden voor AI.

Verwijderd

Geen matches
Der heeft hier ooit op de frontpage van T.net een artikel gestaan dat vertelde van een bedrijf dat elk jaar een .pdf publiceert op het net met al hun toekomstvoorspellingen (uitvindingen en het jaar wanneer die gaan plaatsvinden).
Onderwerpen waren heel uiteenlopend, van hardware, software (A.I. in het speciaal dan), geneeskunde tot politiek en nog meer.
Als ik mij goed herinner (is bijna een jaar geleden denk ik) garandeerde dat bedrijf bij deze voorspellingen een correctheidspercentage van 80 à 85.

Daarin stond oa. een gans hoofdstuk over robots, en hetgeen mij is bijgebleven is de voorspelling wanneer robots (A.I. dus) de capaciteiten van de mens gaan overstijgen (was zo rond 2030 of zo als ik me het goed herinner).
Dan is volgens mij de eerste stap die moet gezet worden, waterdichte wetten (axioma's zoals Wieikke omschrijft) opstellen voor de robots (al eens opgesteld door die SF-auteur Asimov). Die wetten zijn oa.: gij zult een mens nooit kwetsen of doden, gij zult niets doen dat indirect een mens kan kwetsen of doden, en zo nog gelijkaardige wetten.

Maar dat alleen is niet genoeg naar mijn mening om hoog intelligente robots van de toekomst geen dominatie over de mens te laten krijgen.
De tweede stap lijkt mij om de mens genetisch te manipuleren (laat de ethische discussies voorlopig achterwege) en de mens biologisch te 'enhancen'.
Om een stom voorbeeld te geven, een lens op je oog die naar willens kan overschakelen op nightvision of heatvision.

Je hebt het wel door, de mogelijkheden zijn enorm, mits de ethische discussies kunnen opgeklaard worden en misbruik zoveel mogelijk kan beperkt worden.
Maar het komt er op neer dat als de mens zijn eigen evolutie niet in handen neemt, de technologische evolutie wel eens de bovenhand kan nemen, en dat is een rampscenario die ten allen koste moet vermeden.

Dit lijkt misschien allemaal hocus-pocus voor ons, maar dit zit er zeker aan te komen in de komende decennia.

Verwijderd

Topicstarter
Matched: singulariteit
OpifexMaximus:
Wat betreft de huidige status van AI: ik heb ook gezegd dat het een probleem op "lange" termijn is. De komende jaren speelt dit inderdaad nog niet direct, maar het lijkt me zeker zinnig erover na te denken. Wat is in deze context "een groot aantal jaar"? Twintig? Dertig? Vandaar ook de aanhalingstekens rond "lange"; de echt lange termijn is meer in de orde van miljarden jaren, maar daar is niet direct veel zinnigs over te zeggen, behalve dat het heel goed zou kunnen dat wat er gebeurt op deze echt lange termijn bepaald wordt door hoe de technologie en maatschappij zich in de komende decennia ontwikkelen. Ik heb iemand de AI-kwestie en Singulariteit-kwestie laatst zelfs horen beschrijven als de aan-uit-knop van de komende triljoen jaar. :)

Wat betreft regelsystemen van auto's en dergelijke: natuurlijk is het een goed idee om bij dit soort dingen veiligheidsmaatregelen in te bouwen (daar had ik inderdaad wat duidelijker over moeten zijn). Maar het gaat mij nu meer over de toekomst van kunstmatige intelligentie als geheel - naar mijn idee kunnen we niet verwachten dat we alleen door veiligheidsmaatregelen zoals Asimov-wetten garanderen dat het in de toekomst veilig blijft. Als je het hebt over AI's die zelf weer AI's bouwen, in plaats van alleen AI's die auto's besturen, lijken zulke maatregelen me juist contraproduktief.


Wieikke en Quetzal:
Het probleem met het opstellen van waterdichte axioma's als "een robot mag een mens nooit indirect kwetsen" is dat ze nogal vaag zijn - indirect zou alles wel iemand kunnen kwetsen. Als mens begrijpen we wel ongeveer het idee wat met zo'n axioma uitgedrukt wordt, maar dat komt alleen doordat we een stel hersenen met allerlei vrij specifieke aanpassingen hebben. Je kunt wel objecten in het programma van een AI suggestieve namen gaan geven als "mens" en "kwets", maar in principe zegt niets je dat die objecten ook altijd (bij een drastische toename in intelligentie) zullen betekenen wat wij willen dat ze betekenen. Kun je van tevoren al bepalen wat een AI in elke situatie wel en niet zou mogen doen? Als je zoiets expliciet in wilt programmeren ben je lang bezig. En als je ook maar een klein foutje maakt, een kleine "loophole" overlaat, kunnen de gevolgen al rampzalig zijn.

Het is naar mijn mening beter een AI (één die bedoeld is om andere AI's te maken of zichzelf te herschrijven) zo te programmeren dat hij ook zelf de redenen begrijpt waarom we hem dat soort wetten willen laten opvolgen. Je kunt een aanpak met gebruik van wetten van de robotica zien als een aanpak waarbij je de AI tegen zijn wil (zijn doelen) in probeert te beïnvloeden door regels op te stellen; een betere aanpak lijkt me de AI van het begin af aan al zo te scheppen dat zijn doel is met ons mee te werken (waaronder ook valt: meewerken bij het bedenken van een wenselijker en preciezer geformuleerd doel). Bij mensen hebben we de luxe van die tweede aanpak niet en we zijn dan ook niet gewend te denken in termen van "scheppen" in plaats van "beheersen", maar het is echt niet zo dat een AI plotseling andere uiteindelijke doelen krijgt dan wij hem gegeven hebben en ons tegen gaat werken, tenzij dat om bepaalde redenen ook voor iemand die redeneert vanuit een menselijk moreel perspectief logisch is. Als deze laatste aanpak lukt dan zou het ook moeten werken terwijl een AI zichzelf herschrijft en superintelligent wordt, in tegenstellling tot bij een AI die alleen door regels beperkt wordt en dus bepaalde (vrij grote?) delen van zijn broncode niet kan veranderen.

Ik vind niet dat je erover moet denken met een houding "wij de mensen tegen hullie de robots" (ik geloof dat ook bijvoorbeeld Hawking waarschuwt dat de mens de computer een stap voor moet blijven). Mits goed geprogrammeerd, dat wil zeggen met programmaonderdelen analoog aan de delen van onze hersenen die bepalen hoe we denken over moraliteit, kan een AI minstens even betrouwbaar zijn als een mens. Het heeft juist voordelen om een AI zich als eerste intelligenter te laten maken in plaats van een mens - een AI kan je in principe volledig zelf schrijven, een mens niet, en een mens zal dan ook nog allerlei "bugs" bevatten zoals egoïsme, bevooroordeeldheid, rationaliseren van meningen.

Ik vraag me sowieso af of mensen op termijn (zonder "uploaden" wat als het goed is een nog een stuk geavanceerdere techniek is) kunnen concurreren met computers op het gebied van bijvoorbeeld rekenkracht. Genetisch manipuleren gaat langzaam, en ook neuronen hebben maar beperkte mogelijkheden vergeleken met (nano-)elektronica. Een mens kan niet ieder detail van zijn eigen gedachtenproces bekijken.

[ Voor 9% gewijzigd door Verwijderd op 12-01-2003 22:52 ]


  • xentric
  • Registratie: Maart 2002
  • Laatst online: 15-08-2012
Geen matches
De oplossing ligt, zoals al door anderen opgemerkt, absoluut verre van de wetten van Asimov. Zodra een systeem zo intelligent wordt dat het net als een mens kan redeneren, dan is het riskant om een paar simpele regels te hard-coden. Dat systeem zal binnen de kortste keren via software modificaties deze regels kunnen omzeilen.

Een simpele oplossing om AI-systemen, die net zo intelligent, of nog intelligenter als mensen zijn, in het gareel te houden kan men bij de mens zelf terug vinden. Geef die robot's en AI-systemen een religie! Vanwege de oneindige mogelijkheid tot cirkelredeneren achter deze denkwijzen kan een intelligente robot eeuwig in het gareel gehouden worden. Een overweging zal wel moeten zijn dat we ze allemaal dezelfde religie bijbrengen omdat ze anders geheid elkaar de hersens in gaan slaan.

Niks Asimov wetten, maar gewoon de 10 geboden met een eigen verantwoordelijkheid en een aangepraat idee dat er een hemel wacht op goede robot's en een hel op robot's die over de schreef gaan. Als dat bij mensen werkt, dan werkt het vast ook bij AI-systemen ;)

Als er een ding groter is dan het heelal, dan is het de menselijke verbeelding...


Verwijderd

Geen matches
Misschien ben ik erg kortzichtig, maar kan iemand mij uitleggen hoe een AI de mensheid uit zou kunnen roeien zonder toegang tot machines & internet? Een AI zal de mensheid nooit, en als ik iets over het hoofd zie moet iemand me dit vertellen, uit kunnen roeien als je het geen toegang geeft tot machines & internet. Op deze manier wordt zo'n AI natuurlijk voor een groot deel beperkt, maarja, als je 100% veiligheid wilt hebben tegen een kwaadwillige AI dan moet dat maar.

Verwijderd

Geen matches
Dat systeem zal binnen de kortste keren via software modificaties deze regels kunnen omzeilen
Asimov geeft dat zelfs aan, immers de robot ontwikkelt zelf de 'nulde wet' teneinde de 'eerste wet' te kunnen overtreden. Asimov's visie op robotica was meer dan alleen zijn wetten, als je de boeken leest zul je zien dat deze quote:
Het is naar mijn mening beter een AI (één die bedoeld is om andere AI's te maken of zichzelf te herschrijven) zo te programmeren dat hij ook zelf de redenen begrijpt waarom we hem dat soort wetten willen laten opvolgen.
er zeker in verwerkt zit.

  • Aetje
  • Registratie: September 2001
  • Laatst online: 24-03-2023

Aetje

Troubleshooting met HAMERRR

Geen matches
Verwijderd schreef op 12 January 2003 @ 19:37:
Ik denk dat we pas echt moeten oppassen als computers, computers gaan maken. In films wordt een AI bijna altijd slecht. In de werkelijkheid hoeft dit niet zo te zijn. Als we geen behoeftes, verlangens en gevoelens in een AI inbouwen is het volgens mij al een stuk minder gevaarlijk. De vraag is dan nog wel of zo'n AI niet simpelweg via logica kan gaan besluiten dat de mens weg moet. Ik denk toch dat we dan axioma's moeten gaan inprogrammeren. In de trant van de Asimov wetten.
Als computers een vorm van zelfbehoud ontwikkelen is de mens gedoemd... Computers zullen de uit knop als eerste afschaffen denk ik

Forget your fears...
...and want to know more...


Verwijderd

Geen matches
Verwijderd schreef op 12 January 2003 @ 19:37:
Ik denk dat we pas echt moeten oppassen als computers, computers gaan maken. In films wordt een AI bijna altijd slecht. In de werkelijkheid hoeft dit niet zo te zijn. Als we geen behoeftes, verlangens en gevoelens in een AI inbouwen is het volgens mij al een stuk minder gevaarlijk. De vraag is dan nog wel of zo'n AI niet simpelweg via logica kan gaan besluiten dat de mens weg moet. Ik denk toch dat we dan axioma's moeten gaan inprogrammeren. In de trant van de Asimov wetten.
Dat is het gevaar, als we computers computers laten maken dan bepalen we zelf niet waar het stopt, misschien programmeren ze dat zelf wel na verloop van tijd. En dan zijn wij de baas niet meer :(

  • MSalters
  • Registratie: Juni 2001
  • Laatst online: 10-12 14:13
Geen matches
We zouden ook eens 20 jaar kunnen wachten. Dan is volgens de wet van Moore een AI nog een factor 2^7=128 verwijderd van het nivo wat na 30 jaar bereikt wordt. 99.x% van het IQ van zo'n IQ wordt dus in de laatste 10 jaar ontwikkeld. Nu al denken over stoppen, da's gewoon slechte wiskunde.

Man hopes. Genius creates. Ralph Waldo Emerson
Never worry about theory as long as the machinery does what it's supposed to do. R. A. Heinlein


Verwijderd

Geen matches
Wat denk je van de mens die zichzelf gaat verbeteren met technologie.En dan denk ik aan termintor achtige beelden.Een soort bril of lenzen oid die aangesloten is aan een externe (interne) computer die dingen analyseert, je een fotografisch geheugen geeft tot een beperkte mate dan.Die dus verbonden is met je hersens.Iig erg makkelijk als je een woordenlijst uit je kop moet leren :P.Maar zo zie ik het voor me.Ook lichaamsdelen die vervangen gaan worden of versterkt.Het begint met de mensen die die dingetjes kunnen veroorloven.Enhanced geluid opvangers etc etc.De mens zal evolutie te langzaam vinden, en gaat daarom rotzooien met dna e.d en technologie om de perfecte mens te creëren.

Zou toch wel lekker zijn, als je een commando niet meer weet (linux bv ) dat zo een computer een directe link heeft met je hersens en gelijk een backup geeft, dus je denkt en je weet het niet en dan geeft de computer je een lijst die je gewoon voor je ziet.Lijkt me uitermate handig ;)

[ Voor 18% gewijzigd door Verwijderd op 13-01-2003 13:33 ]


  • Opi
  • Registratie: Maart 2002
  • Niet online

Opi

Geen matches
Verwijderd schreef op 12 January 2003 @ 22:46:
OpifexMaximus:
Wat betreft regelsystemen van auto's en dergelijke: natuurlijk is het een goed idee om bij dit soort dingen veiligheidsmaatregelen in te bouwen (daar had ik inderdaad wat duidelijker over moeten zijn). Maar het gaat mij nu meer over de toekomst van kunstmatige intelligentie als geheel - naar mijn idee kunnen we niet verwachten dat we alleen door veiligheidsmaatregelen zoals Asimov-wetten garanderen dat het in de toekomst veilig blijft. Als je het hebt over AI's die zelf weer AI's bouwen, in plaats van alleen AI's die auto's besturen, lijken zulke maatregelen me juist contraproduktief.
Zolang je de ontwerper maar verantwoordelijk houdt voor zijn daden, zie ik eigenlijk geen problemen. Dit geldt niet alleen voor AI of regelsystemen, maar eigenlijk voor alles.

Verwijderd

Geen matches
Staphylococcus_Rex: zeer interessante materie, ik heb het dus van begin tot einde gelezen :P

Tsja, het geeft ook zeker stof tot nadenken. Wat mij vooral intrigeert is hoe je een AI, voordat het een AI is, een intrinsiek moraal en ethiek mee kan geven. Ik ben het er namelijk mee eens dat je niet zomaar een regeltje vast kan leggen met : dat mag niet. Ten eerste is de initiele software gebonden aan onze beperkingen als mens, waardoor je zeker weet dat iets dat vele malen intelligenter is de beveiligingen zonder problemen zal omzeilen.
Ten tweede, het is al gezegd, die regels beperken zonder twijfel de kracht van een zelf-lerende AI.
Rijst de vraag: hoe leg je intrinsiek normen en waarden vast? Wat is de definitie van moraal? Of van 'goed' en 'slecht'? Wie bepaalt dat?
Ik denk dat tijdens het oplossen van dit soort vraagstukken, we keihard met onze neus tegen onze eigen visie over ethiek aan lopen. Anders gezegd: We zullen nog flink wat keren een spiegel voorgehouden worden. Daarnaast vraag ik me af of we hier al aan toe zijn, of we dit al aankunnen.....

  • Thijsch
  • Registratie: Februari 2002
  • Laatst online: 07-12 14:46
Geen matches
OpifexMaximus schreef op 13 January 2003 @ 13:34:
[...]

Zolang je de ontwerper maar verantwoordelijk houdt voor zijn daden, zie ik eigenlijk geen problemen. Dit geldt niet alleen voor AI of regelsystemen, maar eigenlijk voor alles.
Tuurlijk niet, als iemand een freeware programmatje schrijft dat door een fout je computer kan verkloten kan je de maker echt niet aanklagen. gelukkig niet.

  • Opi
  • Registratie: Maart 2002
  • Niet online

Opi

Geen matches
ParaDot schreef op 13 januari 2003 @ 14:50:
[...]

Tuurlijk niet, als iemand een freeware programmatje schrijft dat door een fout je computer kan verkloten kan je de maker echt niet aanklagen. gelukkig niet.
Ok, misschien een beetje simpel gezegd, maar op het moment dat jij iets maakt dat mensen schaadt boeit het hen echt niet of het freeware is of niet. Overigens probeert de maker dan in de meeste gevallen de verantwoordelijkheid af te schuiven, en zich zo niet aansprakelijk te stellen (al is dit volgens mij niet genoeg om je niet aansprakelijkheid helemaal tot nul te reduceren). Voorzover ik weet, zal, in het geval van betaalde diensten, de maker altijd de problemen die door zijn creatie worden veroorzaakt, zelf moeten oplossen.

  • Yoozer
  • Registratie: Februari 2001
  • Laatst online: 03-08 17:53

Yoozer

minimoog

Matched: singulariteit
wat betreft het uitgaan van mogelijke AI-beelden op basis van films : heel leuk, maar als je je waarheden voor belangrijke gebeurtenissen uit hollywood moet halen dan ontbreken er een set essentiële neuronen >:).

wat betreft 'ethiek' en dergelijke - zie de AI als een kind. een kind moet men opvoeden. het kind kan zelf logisch deduceren of snaaiKoekje() meer plezier oplevert dan krijgStraf() met een risicoparameter of een alternatief vraagKoekje(); dit even simplistisch voorgesteld. maar, op die manier kan een AI de eerste zoveel tijd geen echte "behoefte" hebben - zintuiglijke bevrediging zit er nog even niet in, om begrijpbare redenen. deze behoefte heeft een HI (human intelligence) wel, en hij dient deze te bevredigen hetzij uit pure noodzaak, hetzij uit persoonlijk plezier dat eruit geput wordt.

wat betreft asimov's robotwetten - deze zouden stukken makkelijker zijn als de AI de beschikking had over een soort krachtveld dat men om een mens heen kon sluiten zonder dat dit hem pijn deed of uitschakelde, een soort "zachte maar ferme hand". tekstueel laten ze veel te veel gaten over, en in de boeken worden ze wel consequent toegepast maar worden er ook de gezichtspunten bij uitgelegd.

ik ben zelf er geïnteresseerd in de singulariteit, maar het wordt al heel interessant als de AI menselijke capaciteit bereikt. een voorbeeld.

in een grafiek zie je de relatie tussen variabelen A en B uitgeplot. deze variabele is een lijn - stijgt A, dan stijgt/daalt B evenredig mee.

dit is makkelijk bij te houden, of niet?

we kunnen nu 2 dingen doen. we introduceren een 3e variabele en zien vervolgens een vlak verschijnen dat op verschillende manieren gekanteld kan worden. de 3 variabelen zijn, hoewel eenvoudiger te begrijpen als ze gevisualiseerd zijn, minder makkelijk "direct" uit te rekenen. onze hersens zijn tegelijkertijd bezig met een paar duizend andere processen, het registreren van onze sensorische gegevens (waarvan ook al een heel deel onbewust gebeurd - probeer maar eens ergens geconcentreerd mee bezig te zijn en je 'vergeet de tijd'). dit 'onbewust doorleiden' is redelijk bewust - de bandbreedte is niet ongelimiteerd en daarom moeten er wel dingen geregistreerd worden maar worden ze niet direct 'opgenomen'.

een andere optie is om de grafiek niet lineair toe te laten nemen, maar kwadratisch of exponentieel. ook al zijn er dan maar 2 variabelen, dan is de vraag naar 'processingpower' hoger.

een AI heeft dergelijke limitaties niet. deze kan zelfstandig zijn rekenkracht vergroten (meer CPU's erbij), wordt niet afgeleid en kan zich 100% focussen op de taak.

een real-world probleem is meestal om te zetten in een wiskundig model. wij moeten het met grafiekjes en voorspellingen doen; gebruik een dergelijke geavanceerde AI voor de beurs, en hij heeft er gelijk "overzicht" over. van de limitaties van afleiding, andere processen en tekort aan geheugen heeft een AI simpelweg geen last, het kan hoogstens zijn dat de klus wat langer duurt.

de singulariteit kan dus op meerdere manieren plaatsvinden; zowel met de geavanceerde AI of met de mogelijkheid van het zelfstandig vergroten van ons denkvermogen - denk aan een hoofdband met google erin. het laatste heeft neurochirurgie nodig en integratie van mens en machine (op zekere wijze). het zeldzame voorkomen van wat wij dan nu een 'genie' noemen zal dan voor iedereen beschikbaar zijn. voor de SF-liefhebber - lees de boeken van vernor vinge.

teveel zooi, te weinig tijd


Verwijderd

Geen matches
Ik ben het met OpifexMaximus: eens dat het waartschijnlijk nog heel lang zal gaan duren. Ik denk zelf eerder in termen van 100 jaar dan 30 jaar, mits natuurlijk onze beschaving tussentijds niet instort. Maar eens zal dan het moment komen dat wij kunstmatige intelligentie kunnen scheppen. De grote vraag is of die intelligentie ook van bewustzijn zal blijk geven, maar laten we eens aannemen van wel.

Er zijn een aantal belangrijke vraagstukken waarover wij moeten nadenken. Sommige beginnen mogelijk al eerder. Fysiek gezien is de westerse mens al aan het degenereren, stel dat wij robots of breinen kunnen maken die behalve fysiek ook een groot deel van ons denkwerk kunnen overnemen. Wat blijft er dan nog voor de mens over. We zien nu al dat de rekenmachine het vermogen tot rekenen aantast en de spellingscontrole ons vermogen om tot het maken van correcte zinnen. Dat is nog maar het begin. Zal ons verstand niet ontzettend lui worden als wij de lastige klussen aan kunstmatige breinen gaan overlaten. Wat blijft er voor ons nog over om te doen. Een beetje filosoferen en luieren? Ofwel, zullen wij zelf niet gaan degenereren.

Stel dat we het punt bereiken dat we bewuste intelligentie kunnen scheppen. Dan doemen zich een aantal vragen op:

1. Moeten we dat wel doen? We spelen voor God en de risico's zijn enorm. Ik zou liever zien dat de mens zelf tot een intelligenter schepsel verder evolueert, dan dat onze evolutie wordt voortgezet door onze creaties. Wij hebben zelf een rol te vervullen vind ik.

2. Als wij zo'n schepsel creëren, hebben wij ethisch gezien wel het recht om de stekker er weer uit te trekken. Is dat geen moord?

3. Is het wel slim om een uitschakelaar in te bouwen in zo'n schepsel? Zodra het wezen zich bewust wordt dat wij de mogelijkheid hebben om zijn leven te beëindigen, maakt ons dat niet automatisch tot zijn vijand? Aan de andere kant zo'n schakelaar niet inbouwen, is ook gevaarlijk. Kunnen wij zo'n wezen ooit vertrouwen, of maakt ons wantrouwen ons juist tot zijn vijand

4. Kun je een wezen onder controle houden dat intelligenter is dan jezelf? Volgens mij is dat op langere termijn onmogelijk.

5. Moeten wij toestaan dat wezens ontstaan die mogelijk intelligenter zijn dan wijzelf?

edit:

5a. Deze bedacht ik net nog. Kunnen wij die intelligentie wel meten? Het is tenslotte een heel ander soort intelligentie dan wij hebben. Hij zal misschien op een ander type problemen exceleren dan de mens

5b. Ook al meten wij de intelligentie, dan is dat nog steeds een momentopname. Een mens ontwikkelt zijn intelligentie ook geleidelijk. Zo'n kunstmatige intelligentie zal ook een leerproces doormaken. Als hij werkelijk heel intelligent dan krijgt hij misschien door dat hij zijn werkelijke intelligentie beter kan verbergen.


6. Kunnen wij dat verhinderen als wij voor het bouwen van kunstmatige intelligentie een beroep moeten doen op andere kunstmatige intelligentie?

7. welke rol leggen wij weg voor deze wezens. Welke rollen moeten voorbehouden blijven aan de mens alleen?

8. Is het mogelijk een ethiek in te bouwen in zo'n wezen. De wetten van Asimov zijn gemakkelijk genoeg te formuleren, ze zijn heel moeilijk in te bouwen. Er zal nooit iemand kunnen aanwijzen waar de ethiek in de menselijke hersenen zit ingebouwd. Als wij geen zoogdieren waren maar reptielen, zou onze ethiek er waarschijnlijk totaal anders uitzien. Het is zeer de vraag of je een kunstmatig brein zulke ethiek kan inbrengen of bijbrengen en of je daarmee garanties krijgt dat het zich niet tot vijand ontwikkeld.

9. Maar stel dat het lukt. En onze trouwe robbie neemt alles van ons over, van het grasmaaien, privé-chauffeur tot het werken en zelfs het ontwikkelen van nieuwe robots. Ik denk dat het dan snel met ons gedaan is. Deze verleiding is gewoon te groot om te weerstaan. Wij worden aartslui en degenereren. Zonder voldoende prikkels die ons bestaan ons geeft door de strijd tot overleven, verdwijnt ook de lust daartoe.

10. Een ander vraag stel ik mijzelf ook steeds vaker. Gaan de wetenschappelijke ontwikkelingen niet harder dan de mens kan bijhouden. Zouden wij niet eerst in ethiek en intelligentie moeten verder groeien voordat wij ons blootstellen aan deze uitdagingen. Als over 30 jaar inderdaad intelligente wezens worden ontwikkeld, is de setting dan niet verkeerd? Want ongetwijfeld zullen ze dan op de eerste plaats gebruikt gaan worden als wapen. Daarmee gaan meteen ook hele gevaarlijke wezens ontwikkelen.

In mijn visie zou het beter zijn om zulke wezens gescheiden van de mensheid te houden. Laten we wezens met een beperkte intelligentie maar gebruiken om mars en andere planeten te terrraformeren. Laten we alsjeblieft nooit een centraal brein maken die al onze behoeften regelt. Maar laten we ons eigen leven blijven besturen. Asimov geeft die twee standpunten ook weer. De oude aarde is wars van robots, maar de buitenwerelders leunen helemaal op robots en degenereren en sterven uit.

[ Voor 24% gewijzigd door Verwijderd op 14-01-2003 15:13 ]


Verwijderd

Geen matches
Verwijderd schreef op 13 januari 2003 @ 19:50:
4. Kun je een wezen onder controle houden dat intelligenter is dan jezelf? Volgens mij is dat op langere termijn onmogelijk.
Dit vind ik een heel belangrijk punt. Want als je een systeem hebt dan kan het zijn dat wij denken dat het waterdicht is, maar een bewustzijn dat ordes van grote intelligenter is dan ons kan er misschien toch een gaatje in vinden.

Verwijderd

Topicstarter
Matched: singulariteit
Verwijderd schreef op 13 January 2003 @ 13:49:
Wat mij vooral intrigeert is hoe je een AI, voordat het een AI is, een intrinsiek moraal en ethiek mee kan geven.
(...)
Rijst de vraag: hoe leg je intrinsiek normen en waarden vast? Wat is de definitie van moraal? Of van 'goed' en 'slecht'? Wie bepaalt dat?
Dit zijn inderdaad interessante vraagstukken, en als je erin geïnteresseerd bent kan ik de site die ik eerder gelinkt heb (http://www.singinst.org dus) echt aanraden. Hun site is vrij kort geleden vrij ingrijpend geupdatet, en de ideeën waar ik over vertel zijn daar veel meer uitgewerkt, en ook duidelijker en preciezer uitgelegd dan ik hier doe. Er staat vrij precieze technische uitleg, maar ook veel overzichten voor mensen die zich niet daarop willen storten.

Aan het begin zullen we de eerste echt intelligente AI-in-wording zo goed mogelijk bij moeten proberen te brengen wat voor ideeën we hebben over moraal en ethiek, en waarom. Maar uiteindelijk zou het niet zo moeten zijn dat een klein groepje programmeurs alleen zoiets belangrijks bepaalt - uiteindelijk is het een beslissing voor de AI zelf, op basis van (hopelijk steeds intelligentere) overwegingen die ook een rationeel en altruïstisch mens zou hebben. Het kan zijn dat je al overtuigd bent over wat uiteindelijk moreel is en wat er moet gebeuren, maar er is waarschijnlijk een groot aantal mensen die even overtuigd zijn van een andere daarmee strijdige visie. Het kan natuurlijk zijn dat die het allemaal fout hebben, maar het illustreert wel waarom het zinnig is om deze kwestie niet onveranderlijk al van tevoren te beslissen in plaats van open te laten voor de AI (als je echt onbetwistbaar gelijk hebt zal deze dat toch wel inzien).

Het lijkt mij dat een AI zowel met een subjectieve als met een objectieve moraal zou moeten kunnen omgaan, afhankelijk van wat hij uiteindelijk denkt dat het meest juist is.
Als moraal en ethiek subjectief zijn, is er geen enkele reden aan te nemen dat een AI vanzelf al zal doen wat mensen als moreel zien (bijvoorbeeld ze niet uitroeien en recyclen als bouwmateriaal). Menselijke morele intuïties zijn onder meer bepaald door onze voorgaande zoveel miljoen jaar aan evolutie, en dit soort dingen ontstaan niet vanzelf als nevenprodukt van een intelligentere geest. Voor zo'n geval is het idee dus dat we de AI voorzien van wat wel het "moreel referentiekader" van de mens wordt genoemd, namelijk de bepaalde eigenschappen van onze hersenen die leiden tot voornoemde intuïties. Natuurlijk is dit niet definitief - de AI kan vandaar verder zijn eigen doelen en motivaties bijstellen of zelfs drastisch veranderen.
In het geval dat moraal en ethiek objectief zijn kan zo'n aanpak ook zeker geen kwaad. Een AI moet in in zo'n geval in ieder geval de wil hebben zo'n objectieve moraal te zoeken. Om een absurd voorbeeld te nemen: als je een AI programmeert met als "supergoal" (dat wil zeggen, als doel waar alle andere doelen op gebaseerd zijn) het omzetten van de materie in ons universum in zo veel mogelijk ontbijtkoek, zal zo'n AI niet op een objectiever of logischer doel willen overstappen (als je daarvan kunt spreken); immers, dat zou betekenen dat hij minder gemotiveerd zou worden om ontbijtkoek te bakken, en dat wil hij niet, want ontbijtkoek bakken is zijn doel waar hij alles aan afmeet. :)
De tweedeling die ik hierboven maak is natuurlijk nogal simplistisch, maar daar gaat het niet om; het illustreert dat het wenselijk en mogelijk is om een AI zo te bouwen dat deze op moreel gebied minstens zulke "goede", "menselijke" en "logische" filosofische beslissingen zou kunnen maken als een mens. Kortom, met normen en waarden waar zelfs Jan Peter Balkenende nog een puntje aan zou kunnen zuigen. :P

Het is trouwens dus ook een voordeel van deze benadering dat je al dit soort netelige vragen over moraal niet van tevoren al zelf hoeft op te lossen.

Kwesties over hoe de doelen en motivaties van een intelligenter wordende AI (of mens, alhoewel ik denk dat dat weer heel anders zou verlopen) zich kunnen ontwikkelen zijn erg ingewikkeld, en er valt zeker dieper op in te gaan dan ik nu doe.
Ik denk dat tijdens het oplossen van dit soort vraagstukken, we keihard met onze neus tegen onze eigen visie over ethiek aan lopen. Anders gezegd: We zullen nog flink wat keren een spiegel voorgehouden worden. Daarnaast vraag ik me af of we hier al aan toe zijn, of we dit al aankunnen.....
Ja, het is zeker zo dat dit soort dingen tot confronterende vragen leiden; al die filosofische onzin-gedachteëxperimenten als "wat zou je doen als je de toekomst van de wereld kon bepalen" en "als je iets maakt wat denkt zonder ingebakken menselijke aannames, wat zou dat iets dan doen en waarom?" worden er een klein beetje reëler door.

Of we dit al aankunnen weet ik niet, maar naar mijn mening moeten we wel. Het lijkt me onwaarschijnlijk dat je het voor altijd zou kunnen of willen tegenhouden dat er iets intelligenters ontstaat dan de huidige mens; en als dit er toch ooit van moet komen kun je het beter meteen goed doen, of anderen zullen het doen zonder erbij na te denken.

Vandaar dat er een (vrij kleine) groepering is van mensen die zulke pogingen tot een goed voorbereide technologische singulariteit steunen en zich daarom "Singularitarian" noemen. Dit in het kader van het "sta daar niet maar wat, doe iets"-idee.


Andere mensen in willekeurige volgorde:
Zolang je de ontwerper maar verantwoordelijk houdt voor zijn daden, zie ik eigenlijk geen problemen. Dit geldt niet alleen voor AI of regelsystemen, maar eigenlijk voor alles.
De ontwerper verantwoordelijk houden voor zijn daden is wel een goed beginsel, maar het is niet genoeg. Als bij wijze van spreken een voldoend getalenteerde gek op zo'n manier een zelfverbeterende computer programmeert dat deze het zonnestelsel omzet in een grote computer om "Pong" op te spelen, is het voor mij geen troost meer als hij dan de bak in gaat. :P
Misschien ben ik erg kortzichtig, maar kan iemand mij uitleggen hoe een AI de mensheid uit zou kunnen roeien zonder toegang tot machines & internet?
Nou, in principe niet. Tenzij je rare dingen zou kunnen doen met elektromagnetische velden of iets dergelijks. Maar vergeet niet dat een kwaadwillende superintelligente AI ook mensen heel goed psychologisch zou kunnen manipuleren. Desnoods zeg je als AI zijnde, "mwahaha, ik ben lekker al vrijgekomen uit de doos [of wat ook] waar jullie me in hadden opgesloten, en als je nu niet voor me op die en die knop drukt zal ik je voor de komende miljard jaar aan de gruwelijkste martelingen onderwerpen." En dat is dan nog een methode die door een mens is bedacht. Niet door mij trouwens, zo'n zieke geest heb ik niet. :)

Maar het punt is dat zelfs als je een AI in bedwang kan houden door hem op te sluiten in een krachtveld, het uiteindelijk ook wel op de een of andere manier fout gaat, al is het doordat iemand anders besluit om géén krachtveld om zijn eigen AI te zetten.

Je kunt hem natuurlijk ook helemaal in een isoleercel zetten en met geen mens laten praten en niets laten besturen, maar dan heb je er ook eigenlijk niet veel meer aan dan aan een gewoon blok beton. :)
wat betreft het uitgaan van mogelijke AI-beelden op basis van films : heel leuk, maar als je je waarheden voor belangrijke gebeurtenissen uit hollywood moet halen dan ontbreken er een set essentiële neuronen.
Het valt me eerlijk gezegd mee dat ik nog niemand hier over The Matrix of Skynet heb gehoord. ;)
zie de AI als een kind. een kind moet men opvoeden. het kind kan zelf logisch deduceren of snaaiKoekje() meer plezier oplevert dan krijgStraf() met een risicoparameter of een alternatief vraagKoekje(); dit even simplistisch voorgesteld.
Daar ben ik het niet mee eens. Een AI besluiten laten maken op basis van genot en pijn is maar één van de mogelijke manieren, en het lijkt me de flexibiliteit en controleerbaarheid en rationaliteit niet ten goede te komen.
Vooral omdat computers toch al zo snel in serie kunnen rekenen, kun je het net zo goed zo bouwen dat een robot denkt, "ik merk dat ik op een spijker sta, daar gaat mijn robotvoet kapot van en daardoor word ik minder capabel; dat is strijdig met mijn doel de mensheid te helpen [of wat ook], dus haal ik mijn voet weg", in plaats van, "AUW!".
Als computers een vorm van zelfbehoud ontwikkelen is de mens gedoemd...
Dat hoeft niet. Vaak gaan mensen ervan uit dat computers vanzelf, wat voor doel je ze ook geeft, een neiging tot zelfbehoud ontwikkelen die belangrijker wordt dan al het andere. Dat is niet zo; een AI zal wel meestal of altijd zelfbehoud als doel hebben, maar het zien als ondergeschikt doel aan zijn eigenlijke "supergoal", bijvoorbeeld mensen te helpen, en het zal hier normaal gesproken niet als doel voor in de plaats komen. Hetzelfde geldt voor egoïsme in het algemeen; in mensen kun je dat vaak zien als een evolutionare "bug" in plaats van iets wat alle denkende wezens vanzelf hebben. Je moet geloof ik zelfs vrij veel moeite doen om een AI het concept "ik" te laten begrijpen zoals mensen dat doen.

Excuus voor weer een lange post, er is veel over te zeggen :)

Lasker: ik antwoord later (morgen) nog op sommige van je punten

Verwijderd

Geen matches
Verwijderd schreef op 13 January 2003 @ 21:01:
[...]
Dit vind ik een heel belangrijk punt. Want als je een systeem hebt dan kan het zijn dat wij denken dat het waterdicht is, maar een bewustzijn dat ordes van grote intelligenter is dan ons kan er misschien toch een gaatje in vinden.
Een interessante vraag is misschien ook, hoe zal een intelligenter wezen ons beschouwen? Zal hij ons vereren als God, of zal hij ons zien als stadium in de evolutie dat zijn tijd gehad heeft. In dat laatste geval is het met onze eigen evolutie afgelopen. Kijk maar eens hoe wij zelf met dieren omgaan.

[ Voor 3% gewijzigd door Verwijderd op 13-01-2003 23:54 ]


  • Yoozer
  • Registratie: Februari 2001
  • Laatst online: 03-08 17:53

Yoozer

minimoog

Matched: singulariteit
Verwijderd schreef op 13 January 2003 @ 19:50:
Ik ben het met OpifexMaximus: eens dat het waartschijnlijk nog heel lang zal gaan duren. Ik denk zelf eerder in termen van 100 jaar dan 30 jaar, mits natuurlijk onze beschaving tussentijds niet instort. Maar eens zal dan het moment komen dat wij kunstmatige intelligentie kunnen scheppen. De grote vraag is of die intelligentie ook van bewustzijn zal blijk geven, maar laten we eens aannemen van wel.
het project zelf ziet 2030-2040 als een 'realistische' datum. ja, het is wel te hopen dat de beschaving niet in de tussentijd instort.
Zal ons verstand niet ontzettend lui worden als wij de lastige klussen aan kunstmatige breinen gaan overlaten. Wat blijft er voor ons nog over om te doen. Een beetje filosoferen en luieren? Ofwel, zullen wij zelf niet gaan degenereren.
in frank herbert's "duin" (geweldig boek, trouwens) is na een soort 'revolutie' (heb alleen boek 1 en 2 gelezen, dus ik kan het fout hebben) genaamd de butlerse jihad het nabouwen van iets dat de menselijke hersens simuleert ten strengste verboden. in de tussentijd zijn er een soort opleidingscentra gekomen die er alles aan doen om met een combinatie van fokschema's en "survival of the fittest" er alles aan doen om gelijk de intelligentie direct te verbeteren. zonder onze rekenmachines zijn we min of meer hulpeloos (en zou er meer kans op fouten zijn - 3000 jaar wiskunde en mensen die meer beheersen dan simpelweg op- en aftellen zijn nog steeds geen gemeengoed), spellingscontrole is inderdaad een 'luxe' en zou wat mij betreft afgeschaft mogen worden. het is echter wel handig, maar er wordt teveel misbruik van gemaakt (zodat mensen op fora en irc straffeloos taal kunnen verkrachten). zeker als je bekijkt dat je van je geboorte af met (je) (moeder)taal wordt doodgegooid.
Stel dat we het punt bereiken dat we bewuste intelligentie kunnen scheppen. Dan doemen zich een aantal vragen op:

1. Moeten we dat wel doen? We spelen voor God en de risico's zijn enorm. Ik zou liever zien dat de mens zelf tot een intelligenter schepsel verder evolueert, dan dat onze evolutie wordt voortgezet door onze creaties. Wij hebben zelf een rol te vervullen vind ik.
wat het eerste deel betreft - we hebben altijd al voor god gespeeld. we fokken dieren, we kruisen planten, we geven mensen vruchtbaarheidsmedicijnen, we redden levens van mensen die zonder die hulp ongetwijfeld doodgegaan zouden zijn, en vernietigen ze, we vormen de aarde op de manier waarop het ons uitkomt, en de boom der kennis is nog lang niet leeggeplukt.

en, evolutie is in die zin niet voorspelbaar. het kan natuurlijk net zo goed zijn dat de machine-vorm -juist- die door-evoluering is van de mens. anders opent de AI nog steeds perspectieven op het gebied van analyse - geen team van 30 wetenschappers dat tegen wordt gehouden doordat er vergaderingen zijn en er tussentijds aantekeningen moeten worden vergeleken. de AI trekt conclusies op basis van het bestaande materiaal - iets dat normaal 5 jaar research, miljoenen euro's en een mankracht van 50 personen kost kan misschien in een jaar worden opgelost. omdat de AI het ook aan mensen zal kunnen uitleggen kan er evengoed overzicht worden gehouden. dit maakt meer budget vrij voor nuttigere zaken - het hele bezwaar van "er worden miljoenen daar-en-daar-aan besteed maar in de tussentijd gaan er in afrika kindjes dood!" kan hiermee opgelost worden.
2. Als wij zo'n schepsel creëren, hebben wij ethisch gezien wel het recht om de stekker er weer uit te trekken. Is dat geen moord?
het schepsel is gebaseerd op een computersysteem. als het goed is heeft dit RAM, ROM en (met optische schijven/flashgeheugen) een manier om de 'state' op te slaan. alles wat we nodig hebben is iets dat continu de state wegschrijft. de AI zal dan op z'n hoogst 5 minuten geheugenverlies hebben als iemand de stekker eruit trekt.

dit, in tegenstelling tot een mens. als de stekker eruit -blijft- zweeft er ook geen 'ziel' of iets dergelijks rond.
3. Is het wel slim om een uitschakelaar in te bouwen in zo'n schepsel? Zodra het wezen zich bewust wordt dat wij de mogelijkheid hebben om zijn leven te beëindigen, maakt ons dat niet automatisch tot zijn vijand? Aan de andere kant zo'n schakelaar niet inbouwen, is ook gevaarlijk. Kunnen wij zo'n wezen ooit vertrouwen, of maakt ons wantrouwen ons juist tot zijn vijand
dit weet ik niet helemaal te beantwoorden, maar het ontwerp van de Friendly AI moet juist in dergelijke zaken voorzien.
4. Kun je een wezen onder controle houden dat intelligenter is dan jezelf? Volgens mij is dat op langere termijn onmogelijk.
dit ligt eraan of de AI op een enkel systeem draait of toegang krijgt tot een netwerk. in het geval van een netwerk zal het elke poging om te ontsnappen aangrijpen, en in dat geval krijg je het virus-effect - het zal zich verplaatsen, dupliceren, en proberen iets in handen te krijgen als een wapen. met andere woorden, de AI zal een 'stok' nodig hebben om de hond mee te slaan. ook hiervoor zou iets gevonden moeten worden bij de Friendly AI-versie.
5. Moeten wij toestaan dat wezens ontstaan die mogelijk intelligenter zijn dan wijzelf?
dit doen we de hele tijd. er worden kinderen geboren die een betere opleiding krijgen dan de ouders. dit is zelfs het doel van de ouders, ze zijn er trots op als het gebeurt.
6. Kunnen wij dat verhinderen als wij voor het bouwen van kunstmatige intelligentie een beroep moeten doen op andere kunstmatige intelligentie?
ah, dit vanuit de redenering "wij kunnen deze AI niet vertrouwen, dus we weten ook niet of we het resultaat ervan kunnen vertrouwen." goed punt. maar, doen we dat nu niet ook al? computers om gebouwen te maken, computers om machines te ontwerpen, computers om AI-simulaties uit te voeren?
7. welke rol leggen wij weg voor deze wezens. Welke rollen moeten voorbehouden blijven aan de mens alleen?
zelf zou ik zeggen: adviseur. en het liefst een adviseur die zo snel mogelijk verzint hoe we -zelf- door kunnen evolueren, we willen geen miljoen jaar meer wachten.
8. Is het mogelijk een ethiek in te bouwen in zo'n wezen. De wetten van Asimov zijn gemakkelijk genoeg te formuleren, ze zijn heel moeilijk in te bouwen. Er zal nooit iemand kunnen aanwijzen waar de ethiek in de menselijke hersenen zit ingebouwd. Als wij geen zoogdieren waren maar reptielen, zou onze ethiek er waarschijnlijk totaal anders uitzien. Het is zeer de vraag of je een kunstmatig brein zulke ethiek kan inbrengen of bijbrengen en of je daarmee garanties krijgt dat het zich niet tot vijand ontwikkeld.
wederom, zie het idee achter de Friendly AI.
9. Maar stel dat het lukt. En onze trouwe robbie neemt alles van ons over, van het grasmaaien, privé-chauffeur tot het werken en zelfs het ontwikkelen van nieuwe robots. Ik denk dat het dan snel met ons gedaan is. Deze verleiding is gewoon te groot om te weerstaan. Wij worden aartslui en degenereren. Zonder voldoende prikkels die ons bestaan ons geeft door de strijd tot overleven, verdwijnt ook de lust daartoe.
en dat is iets wat we ten allen tijde moeten voorkomen. maar kijk naar de uitdagingen! er is een hele planeet waarvan we nog lang niet alles hebben verkend, er is een hele ruimte waar we nog rond kunnen zwerven! er is simpelweg niets -aan- om op je gat te zitten als je dat ziet.

ook zal de 'kaste' die dan generaties lang op z'n gat zit na een tijd verlamd zijn. technologische vooruitgang gaat na de singulariteit onvoorspelbaar snel, en als een 'huis' om het maar zo te noemen niet bijblijft blijft het nergens.

maar, er is natuurlijk altijd een amish-achtige groep. het vervelende van de singulariteit is dat het niet te voorspellen is wat er precies gebeurt. ook is het niet duidelijk 'wanneer' iets dergelijks gebeurt - of het in een klap is, of geleidelijk gaat, maar de grens is nu vastgezet op een AI.
10. Een ander vraag stel ik mijzelf ook steeds vaker. Gaan de wetenschappelijke ontwikkelingen niet harder dan de mens kan bijhouden. Zouden wij niet eerst in ethiek en intelligentie moeten verder groeien voordat wij ons blootstellen aan deze uitdagingen. Als over 30 jaar inderdaad intelligente wezens worden ontwikkeld, is de setting dan niet verkeerd? Want ongetwijfeld zullen ze dan op de eerste plaats gebruikt gaan worden als wapen. Daarmee gaan meteen ook hele gevaarlijke wezens ontwikkelen.
ook dat moet de Friendly AI voorkomen. persoonlijk zie ik liever dat de mensen van SingInst zich er mee bezig houden dan een (huidige) wereldmacht.
In mijn visie zou het beter zijn om zulke wezens gescheiden van de mensheid te houden. Laten we wezens met een beperkte intelligentie maar gebruiken om mars en andere planeten te terrraformeren. Laten we alsjeblieft nooit een centraal brein maken die al onze behoeften regelt. Maar laten we ons eigen leven blijven besturen. Asimov geeft die twee standpunten ook weer. De oude aarde is wars van robots, maar de buitenwerelders leunen helemaal op robots en degenereren en sterven uit.
het zogenaamde frankenstein-complex :).

maar, we hebben nu al superclusters van computers. op grotere schaal gedacht zou het misschien een idee zijn om op de lichte zijde van de maan een energievoorziening te plaatsen (zonnecellen) en op de schaduwkant een zee van processoren (onder het oppervlak, zodat kleine meteorieten geen problemen geven). een wat ambitieuzer plan is een zogenaamd "jupiter brain" - een planeet vol met clusters.

waar ik je gelijk in kan geven is dat de mens zichzelf moet verbeteren. als we wijzer worden komt vanzelf het ethische gedeelte in orde, omdat we dan inzien dat korte-termijn doelen zoals het onderdrukken van groepen mensen geen zin meer hebben, of misschien wel voor een selecte groep mensen maar niet voor de complete bevolking van de planeet. het doel is het voordeel inzien van het laatste.

ik weet echter nog niet hoe iets dergelijks in een huidige situatie geplaatst kan worden, maar ik ben blij dat de VS of Irak dus nog geen AI hebben waarmee ze op zinnige wijze kunnen werken.

teveel zooi, te weinig tijd


Verwijderd

Geen matches
Ik lees nu net een paar keer dat de mens zal degenereren als we niets meer zelf hoeven te doen, maar waar is dat eigenlijk op gebaseerd :?

Verwijderd

Geen matches
OpifexMaximus schreef op 13 January 2003 @ 14:59:
[...]

Ok, misschien een beetje simpel gezegd, maar op het moment dat jij iets maakt dat mensen schaadt boeit het hen echt niet of het freeware is of niet. Overigens probeert de maker dan in de meeste gevallen de verantwoordelijkheid af te schuiven, en zich zo niet aansprakelijk te stellen (al is dit volgens mij niet genoeg om je niet aansprakelijkheid helemaal tot nul te reduceren). Voorzover ik weet, zal, in het geval van betaalde diensten, de maker altijd de problemen die door zijn creatie worden veroorzaakt, zelf moeten oplossen.
Schiet de rest van de wereld er iets mee op als we de maker verantwoordelijk houden? Het probleem verdwijnt dan echt niet.

  • Opi
  • Registratie: Maart 2002
  • Niet online

Opi

Geen matches
Verwijderd schreef op 14 januari 2003 @ 12:03:
[...]

Schiet de rest van de wereld er iets mee op als we de maker verantwoordelijk houden? Het probleem verdwijnt dan echt niet.
Ligt er uiteraard aan in hoeverre AI zich ontwikkelt heeft. Bij doemscenario's zoals in Terminator en 2001: A Space Odyssee gaat dit niet meer op aangezien de maker er dan zelf ook niks meer aan kan doen.

Maar bij eenvoudigere dingen waarbij het doen en laten van het systeem toch enigzins aanbanden is gelegd is dit denk ik wel iets is om alles een beetje te reguleren.

Verwijderd

Geen matches
Ja, dat is mijn probleem, hoe perk je inteligentie in? De reden dat de mens niet gigantisch veel weet is omdat de mens organisch is en dus zijn eigen lichaamscellen moet vervangen en deeltjes van zijn geheugen in dit'vervangingsproces verliest. bij een machine is dit niet zo, en omdat het theoretisch veel lenger door kan gaan dan de mens kan het zichzelf verbeteren op dezelfde manier dat wij dat met die machine zouden kunnen doen. En als wij die machine zo programmeren dat zijn programmering niet kan worden aangepast, behalve door ons denk je dan niet dat een kunstmatig-inteligente computer dan zelf niet achter de code kan komen om zichzelf her- te programmeren?

  • Yoozer
  • Registratie: Februari 2001
  • Laatst online: 03-08 17:53

Yoozer

minimoog

Geen matches
Verwijderd schreef op 14 januari 2003 @ 02:11:
Ik lees nu net een paar keer dat de mens zal degenereren als we niets meer zelf hoeven te doen, maar waar is dat eigenlijk op gebaseerd :?
goed nadenken met een vleugje pessimisme :P. van de westerse wereld zijn grote aantallen mensen al veel te dik (zie de VS, en nederland volgt). we houden ons lichaam niet gezond. het niveau van 'algemene kennis' dat iemand kan hebben gaat omlaag, de gemiddelde woordenschat van jongeren (bron : amerikaans onderzoek, ik zou graag een linkje geven maar ik kan 'm niet vinden) is gedaald van ca. 50,000 woorden tot nog maar 10,000.

de TV doet 't meeste denkwerk al voor de massa, en de focus ligt nu meer op de kunst van informatie vinden in plaats van echt nieuw research doen. wat erger is (wederom, dit vindt in de VS plaats), ouders willen niet accepteren dat hun kinderen gewoon niet willen of kunnen leren en dwingen de school daardoor soepelere normeringen te hanteren, zodat de kwaliteit van onderwijs omlaag gaat.

ik hoop dat ik 't zo niet al te negatief heb neergezet, en als ik fouten heb gemaakt (het spijt me erg dat ik de observaties van de VS af moet halen, maar het is simpelweg een feit dat de rest erachteraan hobbelt qua trends), voel je dan vrij om me te verbeteren.

teveel zooi, te weinig tijd


  • Yoozer
  • Registratie: Februari 2001
  • Laatst online: 03-08 17:53

Yoozer

minimoog

Geen matches
Verwijderd schreef op 14 January 2003 @ 14:52:
Ja, dat is mijn probleem, hoe perk je inteligentie in? De reden dat de mens niet gigantisch veel weet is omdat de mens organisch is en dus zijn eigen lichaamscellen moet vervangen en deeltjes van zijn geheugen in dit'vervangingsproces verliest.
dat zou ik nog niet eens als reden aanvoeren. weet je waarom dat je iets 'vergeet'? je hersens slaan de informatie op een behoorlijk slordige manier op. onze search-times zijn echter niet altijd even laag :).
bij een machine is dit niet zo, en omdat het theoretisch veel lenger door kan gaan dan de mens kan het zichzelf verbeteren op dezelfde manier dat wij dat met die machine zouden kunnen doen. En als wij die machine zo programmeren dat zijn programmering niet kan worden aangepast, behalve door ons denk je dan niet dat een kunstmatig-inteligente computer dan zelf niet achter de code kan komen om zichzelf her- te programmeren?
een van de manieren om een "aanloop" naar een AI te maken is zelfschrijvende en zelfcorrigerende code. geef de AI de code van de compiler en laat deze upgraden. nog beter, geef de AI de mogelijkheid om zijn eigen hersens te ontwerpen en je moet na een paar iteraties iets krijgen waar intel normaal 20 jaar over doet.

teveel zooi, te weinig tijd


  • Opi
  • Registratie: Maart 2002
  • Niet online

Opi

Geen matches
Yoozer schreef op 14 January 2003 @ 15:01:
[...]
dat zou ik nog niet eens als reden aanvoeren. weet je waarom dat je iets 'vergeet'? je hersens slaan de informatie op een behoorlijk slordige manier op. onze search-times zijn echter niet altijd even laag :).
Ik denk ook niet dat welk programma dan op alles op zal kunnen slaan. Hij zal hoe dan ook moeten gaan generaliseren, maar we raken hier een beetje offtopic. En ook computers houden het niet eeuwig uit (cd'tje is na 80 jaar al niet meer te gebruiken).
Yoozer schreef op 14 January 2003 @ 15:01:
een van de manieren om een "aanloop" naar een AI te maken is zelfschrijvende en zelfcorrigerende code. geef de AI de code van de compiler en laat deze upgraden. nog beter, geef de AI de mogelijkheid om zijn eigen hersens te ontwerpen en je moet na een paar iteraties iets krijgen waar intel normaal 20 jaar over doet.
Misschien kan je dan ff het werk van Lee Spector aan gaan passen zodat je binnen no time Intel weggeconcureerd hebt ;). Merk trouwens op dat hij bepaalde opdrachten voor DARPA heeft gedaan.

[ Voor 6% gewijzigd door Opi op 14-01-2003 15:16 ]


Verwijderd

Geen matches
Yoozer:
van de westerse wereld zijn grote aantallen mensen al veel te dik (zie de VS, en nederland volgt). we houden ons lichaam niet gezond. het niveau van 'algemene kennis' dat iemand kan hebben gaat omlaag, de gemiddelde woordenschat van jongeren (bron : amerikaans onderzoek, ik zou graag een linkje geven maar ik kan 'm niet vinden) is gedaald van ca. 50,000 woorden tot nog maar 10,000.
Ik geloof dat de mens van nu, en de mens van 100.000 jaar geleden genetisch niet veel van elkaar verschilt. Er zijn echter wel grote verschillen als je ze met ons vergelijkt op andere vlakken; ze leefden veel ongezonder, ze hadden een kleinere woordenschat en ze bevonden zich in een minder complexe omgeving. Als je dit nu in ogenschouw neemt, en je ziet dat onze wereld alsmaar complexer is geworden, en dat onze kennis alleen maar toe is genomen en toe zal blijven nemen, dan denk ik dat de mens eerder zal evolueren dan degenereren. Een AI zal veel taken uit handen nemen, maar onze omgevingscomplexiteit zal niet stoppen met groeien, en daar moeten we als mensen mee om kunnen gaan. Ik denk dat meneer evolutie de beroerdste niet is, en die zal daar vast voor zorgen ;)

  • Yoozer
  • Registratie: Februari 2001
  • Laatst online: 03-08 17:53

Yoozer

minimoog

Geen matches
OpifexMaximus schreef op 14 January 2003 @ 15:15:
Ik denk ook niet dat welk programma dan op alles op zal kunnen slaan. Hij zal hoe dan ook moeten gaan generaliseren, maar we raken hier een beetje offtopic. En ook computers houden het niet eeuwig uit (cd'tje is na 80 jaar al niet meer te gebruiken).
helemaal correct, ben ik het mee eens. maar kijk, een innovatie van die schaal kan door de AI als opdracht aan de mens gegeven worden. een soort van "bouw een planeet, wacht 6936 jaar totdat ik klaar ben, en het antwoord is "42", maar nu moet ik de vraag nog even uitzoeken"-iets. en, cd-tjes zijn al eerder niet meer te gebruiken, genoeg goedkope exemplaren geven het na 3 jaar al op bij mij >:).

wat je bij mensen ook niet helemaal hebt is de redundantie van de gegevens. als bij jou fragmenten van iets als een verhaal zijn verdwenen kun je ze zelf aanvullen door gericht te gokken.
Misschien kan je dan ff het werk van Lee Spector aan gaan passen zodat je binnen no time Intel weggeconcureerd hebt ;). Merk trouwens op dat hij bepaalde opdrachten voor DARPA heeft gedaan.
ik beweer nog niet dat een huidige AI hiertoe in staat is, omdat we nu nog niet op het niveau zitten waarbij een voldoende complexe intelligentie op volwassen manieren kan reageren. geduld is echter een schone zaak. er zijn ook ideeën en algoritmes die al op hun top qua efficiency zitten, gezien de hardware. denk je eens in wat er zou gebeuren als er bij de PC's net zoiets komt als bij de amiga. alle hardwareontwikkeling wordt voor een jaar of 6 gewoon domweg -stop-gezet; dan worden programmeurs vanzelf gedwongen om de code qua assembler gewoon grof te optimaliseren. (dit zou makkelijker zijn met slechts 1 cpu-producent, maar okee). geen sleur & pleur meer, maar het dieper in de onderliggende code duiken om deze efficienter te maken in plaats van er gewoon een paar megahertz meer tegenaan te smijten.

teveel zooi, te weinig tijd


  • Yoozer
  • Registratie: Februari 2001
  • Laatst online: 03-08 17:53

Yoozer

minimoog

Geen matches
Verwijderd schreef op 14 January 2003 @ 16:02:
Ik geloof dat de mens van nu, en de mens van 100.000 jaar geleden genetisch niet veel van elkaar verschilt. Er zijn echter wel grote verschillen als je ze met ons vergelijkt op andere vlakken; ze leefden veel ongezonder, ze hadden een kleinere woordenschat en ze bevonden zich in een minder complexe omgeving. Als je dit nu in ogenschouw neemt, en je ziet dat onze wereld alsmaar complexer is geworden, en dat onze kennis alleen maar toe is genomen en toe zal blijven nemen, dan denk ik dat de mens eerder zal evolueren dan degenereren.
evolutie betekent niet per definitie iets beters, alleen beter aangepast aan de omgeving. het idee van een 400 kilo zware 'blob' van een mens die in een karretje zit met een brein dat zich op dagelijkse basis alleen maar met "A/S/L?" bezig houdt noem ik nog niet echt verbetering :). maar nu stel ik het zelf wat te simplistisch voor.

in hoeverre zijn we echt 'slimmer' geworden? vanaf welke tijd is de noodzaak erbij gekomen om snel van een scherm uit een grote massa informatie alles te selecteren wat relevant is? de senioren van onze generatie kunnen dit nog niet, de toekomstige senioren hoogstwaarschijnlijk wel - maar dan zal de informatie weer toegenomen zijn, en op andere manieren gepresenteerd worden. mijn kleinzoon zal erom lachen dat ik google gebruik op een CRT-scherm, omdat de informatie veel directer geprojecteerd en gebruikt kan worden.

iets waar we nog niet aan hebben gewerkt is het feit dat we ons al sinds een jaar of 6000 de kop in slaan over goden, grondstoffen en geld. hierbij wordt ook onze leefomgeving vernietigd wordt en de sterkste en beste krijgers moeten er aan geloven. vooruitgang is mooi meegenomen, maar zo schiet het natuurlijk niet echt op :P.


Een AI zal veel taken uit handen nemen, maar onze omgevingscomplexiteit zal niet stoppen met groeien, en daar moeten we als mensen mee om kunnen gaan. Ik denk dat meneer evolutie de beroerdste niet is, en die zal daar vast voor zorgen ;)[/quote]

teveel zooi, te weinig tijd


Verwijderd

Geen matches
Yoozer:
evolutie betekent niet per definitie iets beters, alleen beter aangepast aan de omgeving.
Niet perse iets beters, maar juist in het geval van de mens zal evolutie waarschijnlijk gepaard gaan met een toename van intelligentie. Zoals ik al zei, onze omgeving zal steeds complexer worden en de evolutie zal ons zeer waarschijnlijk zo aan passen dat we beter met die omgeving om kunnen gaan. Door een AI zal onze omgeving alleen maar sneller complexer worden, dus ik verwacht niet dat we degenereren.

Verwijderd

Geen matches
Verwijderd schreef op 14 januari 2003 @ 18:53:
[...]
Niet perse iets beters, maar juist in het geval van de mens zal evolutie waarschijnlijk gepaard gaan met een toename van intelligentie. Zoals ik al zei, onze omgeving zal steeds complexer worden en de evolutie zal ons zeer waarschijnlijk zo aan passen dat we beter met die omgeving om kunnen gaan. Door een AI zal onze omgeving alleen maar sneller complexer worden, dus ik verwacht niet dat we degenereren.
Of de omgeving complexer wordt, weet ik niet. Een computer nu is een stuk complexer dan 30 jaar geleden, voor de gebruiker echter eenvoudiger. Waar het denk ik meer omgaat is de uitdagingen die de omgeving aan de mens stelt. In principe kan de moderne mens zich net zo goed fit houden als een natuurmens. We hebben sportverenigingen, sportscholen, we kunnen fietsen etc. Nu die inspanningen echter niet meer noodzakelijk zijn laten de meeste dat echter achterwege. Dezelfde situatie zul je ook krijgen als we het denkwerk laten overnemen. Hersenen zijn het meest luie orgaan van allemaal. Nu al nemen veel mensen niet meer de moeite om hoofd te rekenen of woordspelling te leren.

De achteruitgang zal echt geen honderdduizend jaar duren. Evolutie kan zich veel sneller voltrekken zoals je op Galapacos eilanden kan zien. Genen hoeven ook niet te verdwijnen, ze kunnen simpel weg worden uitgeschakeld als ze niet meer nodig zijn. Overigens is er nu al een achteruitgang merkbaar in het westen. Er zijn steeds minder mensen die nog hele zware studies willen volgen en steeds meer studenten kiezen liever voor HBO dan universiteit. Een land is de VS is volkomen afhankelijk van de import van brains uit andere landen, zoals china. Dat is precies omgekeerd wat je zou verwachten in een complexe informatie-maatschappij.

Verwijderd

Geen matches
Of de omgeving complexer wordt, weet ik niet.
Dat lijkt me vrij duidelijk? Om ons heen is steeds meer technologie te vinden en je moet hier als mens mee om kunnen gaan. Als je als mens niet met een (gecrëeerde) menselijke omgeving om kunt gaan val je buiten de boot.
Waar het denk ik meer omgaat is de uitdagingen die de omgeving aan de mens stelt.
Mee eens, alleen ben ik er van overtuigd dat er steeds meer van het menselijk denkvermogen gevraagd zal worden door die complexer wordende omgeving, en ik heb zo het idee dat jij dit niet met me deelt.
In principe kan de moderne mens zich net zo goed fit houden als een natuurmens. We hebben sportverenigingen, sportscholen, we kunnen fietsen etc. Nu die inspanningen echter niet meer noodzakelijk zijn laten de meeste dat echter achterwege.
We zijn niet meer zo fit als vroeger, maar zullen we daardoor degenereren? Dat we minder bewegen wordt ruim gecompenseerd door onze schone eet & drink gewoontes en onze sterk verbeterde gezondheidszorg. Onze levensverwachting is niet voor niets zo sterk gestegen.
Dezelfde situatie zul je ook krijgen als we het denkwerk laten overnemen. Hersenen zijn het meest luie orgaan van allemaal. Nu al nemen veel mensen niet meer de moeite om hoofd te rekenen of woordspelling te leren.
Een AI zal ons denkwerk niet overnemen, ik denk dat dat een misverstand is. Een AI zal gebruikt worden om problemen op te lossen waar de mens zelf niet uitkomt, of om problemen op te lossen waar de mens zelf lange tijd over zal doen om op te lossen. We hebben een AI echt niet nodig als we een spannend boek lezen, of als we een leuk recept uit een kookboek aan het bereiden zijn. We hebben een AI evenmin nodig als we aan het internetten zijn of als we T.V. kijken. De mens zal zelf echt nog wel na moeten denken als er een AI ontwikkeld is.
De achteruitgang zal echt geen honderdduizend jaar duren. Evolutie kan zich veel sneller voltrekken zoals je op Galapacos eilanden kan zien. Genen hoeven ook niet te verdwijnen, ze kunnen simpel weg worden uitgeschakeld als ze niet meer nodig zijn. Overigens is er nu al een achteruitgang merkbaar in het westen. Er zijn steeds minder mensen die nog hele zware studies willen volgen en steeds meer studenten kiezen liever voor HBO dan universiteit. Een land is de VS is volkomen afhankelijk van de import van brains uit andere landen, zoals china. Dat is precies omgekeerd wat je zou verwachten in een complexe informatie-maatschappij.
Dit is echt niet aan degeneratie te wijten. In een periode van, zeg maar, 50 jaar is dit achteruit gegaan en in die tijd kan iets echt niet degenereren. Dat lijkt me volkomen uitgesloten, dus dit zal aan iets anders moeten liggen.

  • MSalters
  • Registratie: Juni 2001
  • Laatst online: 10-12 14:13
Geen matches
Verwijderd schreef op 15 januari 2003 @ 01:41:
[ quote ]Overigens is er nu al een achteruitgang merkbaar in het westen. Er zijn steeds minder mensen die nog hele zware studies willen volgen en steeds meer studenten kiezen liever voor HBO dan universiteit. Een land is de VS is volkomen afhankelijk van de import van brains uit andere landen, zoals china. Dat is precies omgekeerd wat je zou verwachten in een complexe informatie-maatschappij.
[ /quote ]
[...]
Dit is echt niet aan degeneratie te wijten. In een periode van, zeg maar, 50 jaar is dit achteruit gegaan en in die tijd kan iets echt niet degenereren. Dat lijkt me volkomen uitgesloten, dus dit zal aan iets anders moeten liggen.
"Het lijkt me" vind ik niet zo'n sterk argument. De afgelopen 50 jaar heeft de westerse wereld een extreem sterke verandering gezien in de demografische fundamenten:
De pil heeft de gezinsgrootte sterk teruggebracht,
De moderne democratie heeft de overlevingskans van mensen aan de onderkant van de samenleving sterk omhooggebracht
Partnerkeuze is een sterk individueel verschijnsel geworden.
De leeftijd waarop een vaste relatie aangegaan wordt gestegen.
Het aantal scheidingen is sterk gestegen.
Homosexualiteit is (zeker in het liberalere deel van de samenleving) geaccepteerd.
Vrijwillige kinderloosheid is acceptabel geworden, en niet zeldzaam bij mensen die de wereld als overbevolkt zien.

Dit zijn allemaal effecten, waardoor het ogenschijnlijke evolutionaire voordeel van een hoger IQ irrelevant wordt, danwel een nadeel wordt. De overlevingkans van een gen wordt significant hoger als het het IQ naar beneden brengt.

Man hopes. Genius creates. Ralph Waldo Emerson
Never worry about theory as long as the machinery does what it's supposed to do. R. A. Heinlein


  • ari3
  • Registratie: Augustus 2002
  • Niet online
Geen matches
Yoozer schreef op 14 January 2003 @ 01:03:

het schepsel is gebaseerd op een computersysteem. als het goed is heeft dit RAM, ROM en (met optische schijven/flashgeheugen) een manier om de 'state' op te slaan. alles wat we nodig hebben is iets dat continu de state wegschrijft. de AI zal dan op z'n hoogst 5 minuten geheugenverlies hebben als iemand de stekker eruit trekt.

dit, in tegenstelling tot een mens. als de stekker eruit -blijft- zweeft er ook geen 'ziel' of iets dergelijks rond.
Goed punt. Intelligentie is niet gelijk aan bewustzijn. Echter, evolutie laat ons zien dat intelligente wezens ook een bepaalde vorm van bewustzijn hebben.

De mens is hierin het meest ontwikkeld, maar je ziet een bepaalde vorm van bewustzijn ook terug bij andere intelligente dieren zoals dolfijnen en apen.

Kun je mischien concluderen dat de mate van intelligentie evenredig is met de mate van bewustzijn? Ofwel: intelligentie impliceert bewustzijn?

Voor mij persoonlijk is de mate van bewustzijn belangrijk bij het bepalen of een wezen qua rechten en plichten "gelijk" aan mezelf staat. Een machine met gelijke mate van intelligentie en bewustzijn zou naar mijn norm dan gelijke rechten hebben als een mens.

Een intelligent wezen (kunstmatig of niet) zonder of lagere mate van bewustzijn kan ik niet vertrouwen verantwoordelijkheid te nemen voor zijn omgeving.

"Kill one man, and you are a murderer. Kill millions of men, and you are a conqueror. Kill them all, and you are a god." -- Jean Rostand


Verwijderd

Geen matches
MSalters:
"Het lijkt me" vind ik niet zo'n sterk argument.
Daar heb je natuurlijk gelijk in, maar was het echt nodig om dat stukje te onderbouwen? Het lijkt mij logisch dat een mens in 50 jaar tijd niet kan degenereren. Het tijdsbestek is veel te kort om als mensheid genetisch achteruit te gaan.
De pil heeft de gezinsgrootte sterk teruggebracht...
In de toekomst zullen we, als de menselijke bevolking zo rap blijft stijgen, niet genoeg voedsel hebben, dus de pil kan onze overlevingskansen natuurlijk ook verhogen. De pil is niet perse iets negatiefs. In de natuur worden diergroepen ook op peil gehouden, dit is heel natuurlijk.
De moderne democratie heeft de overlevingskans van mensen aan de onderkant van de samenleving sterk omhooggebracht...
Ik denk dat dit onze overlevingskansen juist vergroot. Immers, mocht jou hetzelfde overkomen in jouw leven dan kun je terugvallen op die hulpvoorziening. De mensheid heeft dankzij dit systeem geen echte 'zwakkeren' meer zoals je dat bij dieren wel ziet.
Partnerkeuze is een sterk individueel verschijnsel geworden...
Waarom zou een lagere intelligentie beter zijn op dit punt?
De leeftijd waarop een vaste relatie aangegaan wordt gestegen...
Waarom zou dit negatief zijn voor ons voortbestaan?
Het aantal scheidingen is sterk gestegen...
Idem.
Homosexualiteit is (zeker in het liberalere deel van de samenleving) geaccepteerd...
Is homosexualiteit gekoppeld aan onze hogere intelligentie? Ik kan me herinneren dat homosexualiteit ook bij dieren voorkomt.
Vrijwillige kinderloosheid is acceptabel geworden, en niet zeldzaam bij mensen die de wereld als overbevolkt zien.
Dit is juist positief voor ons voortbestaan. Er zijn binnen niet al te lange tijd teveel mensen; die kunnen dan niet allemaal worden ondersteund door onze voedselvoorziening. Het aantal mensen zonder kinderen zal gewoon weer afnemen als de mensheid weer is ingekrimpt.

Verwijderd

Geen matches
Verwijderd schreef op 15 January 2003 @ 14:33:
Daar heb je natuurlijk gelijk in, maar was het echt nodig om dat stukje te onderbouwen? Het lijkt mij logisch dat een mens in 50 jaar tijd niet kan degenereren. Het tijdsbestek is veel te kort om als mensheid genetisch achteruit te gaan.
Dat heeft ook nooit iemand beweert. Wij zien een achteruitgang die zal leiden tot degeneratie en daar zal geen 100.000 jaar voor nodig zijn, net zo min als er 100.000 jaar nodig was om al die verschillende honderassen te fokken. Kijk eens hoe snel bepaalde honderassen zijn gedegenereerd door onzorgvuldig fokken. Dat is het grote gevaar. In singapore is al aan de bel getrokken, omdat juist de hoog opgleide vrouwen niet meer aan kinderen toekomen, sinds zij een eigen carriere zijn gaan nastreven. Ook het krijgen van kinderen op latere leeftijd heeft een zwakker nageslacht tot gevolg. Het in leven houden van kinderen met ernstige defecten in couveuses leidt ook tot een zwakker nageslacht. Dat soort ontwikkelingen leidt wel degelijk tot degeratie en snel ook. Een westerling is al een beetje een kasplantje geworden.

Verwijderd

Geen matches
lasker:
Dat heeft ook nooit iemand beweert.
Mijn fout, ik heb het verkeerd opgevat. Er werd dus beweerd dat de huidige ontwikkelingen (lagere woordenschat, etc) zullen leiden tot degeneratie.
Wij zien een achteruitgang die zal leiden tot degeneratie en daar zal geen 100.000 jaar voor nodig zijn, net zo min als er 100.000 jaar nodig was om al die verschillende honderassen te fokken.
De evolutie heeft er op een bepaald moment voor gezorgd dat we een brein hebben zoals dat nu is. In het prille begin, toen de mens nog niet zo geciviliseerd was, deden we niet veel meer dan jagen, voortplanten en doodgaan. Waarom zou ik dan nu moeten denken, nu we veel meer met dat brein doen, en nu onze omgeving veel complexer is dan toen, dat we de degeneratie kant op zijn geslagen? Omdat de gemiddelde mens iets minder woorden kent? Ik denk het niet...

Verwijderd

Geen matches
Verwijderd schreef op 15 January 2003 @ 14:33:
[...]
Daar heb je natuurlijk gelijk in, maar was het echt nodig om dat stukje te onderbouwen? Het lijkt mij logisch dat een mens in 50 jaar tijd niet kan degenereren. Het tijdsbestek is veel te kort om als mensheid genetisch achteruit te gaan.


[...]
In de toekomst zullen we, als de menselijke bevolking zo rap blijft stijgen, niet genoeg voedsel hebben, dus de pil kan onze overlevingskansen natuurlijk ook verhogen. De pil is niet perse iets negatiefs. In de natuur worden diergroepen ook op peil gehouden, dit is heel natuurlijk.


[...]
Ik denk dat dit onze overlevingskansen juist vergroot. Immers, mocht jou hetzelfde overkomen in jouw leven dan kun je terugvallen op die hulpvoorziening. De mensheid heeft dankzij dit systeem geen echte 'zwakkeren' meer zoals je dat bij dieren wel ziet.


[...]
Waarom zou een lagere intelligentie beter zijn op dit punt?


[...]
Waarom zou dit negatief zijn voor ons voortbestaan?


[...]
Idem.


[...]
Is homosexualiteit gekoppeld aan onze hogere intelligentie? Ik kan me herinneren dat homosexualiteit ook bij dieren voorkomt.


[...]
Dit is juist positief voor ons voortbestaan. Er zijn binnen niet al te lange tijd teveel mensen; die kunnen dan niet allemaal worden ondersteund door onze voedselvoorziening. Het aantal mensen zonder kinderen zal gewoon weer afnemen als de mensheid weer is ingekrimpt.
Ik denk juist dat MSalters het omgekeerde bedoeld. Als we in landen kijken met een lager kennisniveau, zien we dat deze landen/mensen/culturen:

- homosexualiteit afkeuren
- voorbehoedsmiddelen niet gebruiken en/of afkeuren
- op vroegere leeftijd kinderen krijgen
- kinderloosheid niet accepteren

Een groep met een minder hoog niveau (dat minder is geliberaliseerd) krijgt meer nakomelingen en zo degenereerd het menselijke ras.

Zelf zie ik het meer als een natuurlijk evenwicht. Het is zo dat we op deze manier niet op top-snelheid kunnen groeien in kennis en niveau, maar is dat dan nodig? Ik zag zelfs net een post voorbij komen van iemand die het allemaal te hard vond gaan qua kennis en wetenschap, willen we dan nog sneller?
Met een beetje geluk hebben we nog duizenden/miljoenen jaren te gaan, so why hurry?

Verwijderd

Geen matches
SigSec:
Een groep met een minder hoog niveau (dat minder is geliberaliseerd) krijgt meer nakomelingen en zo degenereerd het menselijke ras.
Je gaat er dan vanuit dat die groep van een 'minder hoog niveau' minder intelligent nageslacht levert. Ik denk niet dat je daar vanuit kunt gaan. Neem bijv. iemand met het syndroom van down, zo iemand kan gewoon volkomen normaal nageslacht leveren.

Verwijderd

Geen matches
Verwijderd schreef op 15 januari 2003 @ 15:12:
[...]
Mijn fout, ik heb het verkeerd opgevat. Er werd dus beweerd dat de huidige ontwikkelingen (lagere woordenschat, etc) zullen leiden tot degeneratie.


[...]
De evolutie heeft er op een bepaald moment voor gezorgd dat we een brein hebben zoals dat nu is. In het prille begin, toen de mens nog niet zo geciviliseerd was, deden we niet veel meer dan jagen, voortplanten en doodgaan. Waarom zou ik dan nu moeten denken, nu we veel meer met dat brein doen, en nu onze omgeving veel complexer is dan toen, dat we de degeneratie kant op zijn geslagen? Omdat de gemiddelde mens iets minder woorden kent? Ik denk het niet...
Omdat de evolutie buiten werking is gesteld. Het is niet meer zo dat slimme mensen zich harder zouden voorplanten dan minder slimme. De intelligentie van komende generatie wordt veel meer bepaald door sociaal maatschappelijke ontwikkelingen die niets met evolutie te maken hebben. Als je naar intelligentere mens wilt streven, dan moet je een fokprogramma opzetten. (menselijke selectie) Dat werkt ook veel sneller dan de evolutie, maar is erg omstreden. In Singapore wilde men het kindertal van intelligente mensen extra stimuleren, als compensatie. Dit werd onmiddelijk vergeleken met de eugenetica van de nazi's. Iedereen is als de dood waar dit toe leidt.

[ Voor 5% gewijzigd door Verwijderd op 15-01-2003 16:42 ]


Verwijderd

Topicstarter
Matched: singulariteit
Verwijderd schreef op 13 januari 2003 @ 19:50:
De grote vraag is of die intelligentie ook van bewustzijn zal blijk geven, maar laten we eens aannemen van wel.
Het lijkt me moeilijk vol te houden dat een kunstmatig intelligent wezen zich zelfs niet zou gedragen alsof hij bewustzijn heeft ("Weak AI"). Sommigen zien dat als onderdeel van wat het betekent om echt kunstmatig intelligent te zijn, via bijvoorbeeld de Turing-test.
Of een AI ook echt bewustzijn kan hebben in plaats van net doen alsof is weer een andere vraag ("Strong AI"), en trouwens ook een vraag waar het antwoord "ja" op is.
Zal ons verstand niet ontzettend lui worden als wij de lastige klussen aan kunstmatige breinen gaan overlaten. Wat blijft er voor ons nog over om te doen. Een beetje filosoferen en luieren? Ofwel, zullen wij zelf niet gaan degenereren.

(...)

Ik zou liever zien dat de mens zelf tot een intelligenter schepsel verder evolueert, dan dat onze evolutie wordt voortgezet door onze creaties. Wij hebben zelf een rol te vervullen vind ik.

(..)

9. Maar stel dat het lukt. En onze trouwe robbie neemt alles van ons over, van het grasmaaien, privé-chauffeur tot het werken en zelfs het ontwikkelen van nieuwe robots. Ik denk dat het dan snel met ons gedaan is. Deze verleiding is gewoon te groot om te weerstaan. Wij worden aartslui en degenereren. Zonder voldoende prikkels die ons bestaan ons geeft door de strijd tot overleven, verdwijnt ook de lust daartoe.
Ik denk dat je een verkeerd beeld hebt van de mogelijkheden die een toekomst met extreem intelligente AI's biedt. Wat ik voorstel is niet dat AI's voor altijd al het werk zullen doen en de dienst uit zullen maken--maar het is wel verreweg het veiligst om te zorgen dat de eerste die zichzelf superintelligent maakt een vriendelijke AI is. Deze AI kan dan mensen helpen alle interessante dingen te verkennen die door een veel grotere intelligentie en geavanceerdere technologie mogelijk gemaakt worden; in het bijzonder kan de AI mensen helpen verder te evolueren hoe ze willen en zelf even intelligent te worden.

"Evolueren" is hier eigenlijk het verkeerde woord, omdat het dan voor het eerst niet meer gaat om natuurlijke selectie die werkt op genen, en die genen bevoordeelt die het gunstigst zijn bij het overleven en voortplanten--het gaat om iets heel anders, namelijk dat men zelf bepaalt (op basis van praktisch nut en persoonlijke voorkeuren en morele overwegingen, en dus niet alleen maar op basis van wat handig is bij het overleven en voortplanten) in welke richting men verandert. Het is daarom beter om vanaf dan te spreken van "gestuurde vooruitgang" of iets dergelijks. Meneer evolutie mag dan de beroerdste niet zijn, ik stel voor dat we hem zo snel mogelijk lozen. :P

Als dit radicaal klinkt, bedenk dan nogmaals dat een superintelligente AI of een superintelligent geworden mens in korte tijd alle technologie zou kunnen ontwikkelen die we normaal in millennia zouden verwachten; het meeste wat fysisch mogelijk is zou technisch mogelijk worden. Uploaden van de hersenen in een computer is maar één voorbeeld. (Op een gegeven moment heeft het trouwens alleen nog zin te spreken over een "wezen" of "geest" omdat hoe deze intelligentie is begonnen dan voor het eindresultaat niet echt meer uit zal maken; een superintelligente AI zal zich niet gedragen als ons stereotype van een robot, en een superintelligent mens niet als ons stereotype van een mens.)

Als er in zo'n situatie nog mensen zijn die ervoor kiezen op de gewone 100% natuurlijke manier kinderen te krijgen, is het misschien mogelijk dat deze een beetje degenereren. Maar voor de mensheid als geheel zal het geen ramp zijn, omdat er altijd mensen zullen zijn die wel van de technologische mogelijkheden gebruikmaken om zich bezig te houden met nieuwe "post-menselijke" uitdagingen, die ervoor kiezen om hun evolutie in eigen hand te nemen. En die zullen er zeker niet voor kiezen zichzelf te veranderen in een hoop vet van 400 kilo met net genoeg hersenen om te chatten. Elk moment je best doen om te overleven zal niet meer nodig zijn, zonder dat dat hoeft te leiden tot wat voor soort verzwakking dan ook. Dat lijkt me juist een goede zaak.
Ook voor individuen hoeft het geen ramp te zijn. Als je bij wijze van spreken als kind van gedegenereerde mensen geboren wordt, kun je er later altijd zelf voor kiezen "geupgraded" of "ontdegenereerd" te worden op technologische wijze.

Kortom, als er überhaupt nog iets zal degenereren wordt degenereren een bewuste, persoonlijke keuze. :)
En als onze scheppingen onze evolutie voortzetten, betekent dat niet dat wij dat niet tegelijk óók kunnen doen, in allerlei verschillende richtingen.

Het is heel moeilijk om vanuit menselijk oogpunt weer te geven hoeveel nieuwe en complexe problemen en mogelijkheden zich zouden openen voor iemand die ook maar een beetje intelligenter wordt dan voor mensen mogelijk is. Er zijn wel wat pogingen gewaagd, zie bijvoorbeeld de volgende webpagina's.

Staring into the Singularity
Singularity Fun Theory

Bovendien is er op zichzelf niks mis met filosoferen en luieren, als je ermee wegkomt. :)
1. Moeten we dat wel doen? We spelen voor God en de risico's zijn enorm.
Misschien spelen we zo inderdaad wel voor God, maar zoals Yoozer uitlegde doen we dat al langer. Zulke argumenten hoorde je geloof ik ook bij de eerste harttransplantaties, maar die zijn nu algemeen aanvaard. Maar goed, het is natuurlijk wel waar dat dit een heel nieuwe en drastische manier van voor God spelen is.
Op mij als atheïst zijnde hebben zulke argumenten weinig uitwerking--als wij niet voor God spelen, wie dan wel? Iemand moet het doen. :)
Maar de meeste mensen zijn geen atheïst, en vanuit dat oogpunt zou ik inderdaad graag willen weten wat de verschillende godsdiensten zouden zeggen over de vraag of het scheppen van kunstmatige intelligentie mogelijk en wenselijk is.

Het is helemaal waar dat de risico's enorm zijn, niet zozeer enorm wat betreft de kans dat het fout gaat, maar wel wat betreft hoeveel er op het spel staat. Maar de risico's van niets doen of de ontwikkelingen tevergeefs voor altijd proberen tegen te houden zijn nog veel groter.
Het leven is geen "God-game" waar wij de beslissingen voor de hele mensheid kunnen bepalen. Het zou misschien fijn zijn (of niet) als iedereen op de hele wereld besloot zich niet voorbij een bepaald punt met gevaarlijke dingen als AI in te laten, maar het is gewoon niet realistisch om te verwachten dat je er zo veel invloed op kunt hebben tenzij je dictator van de hele wereld bent. Hoe langer de technische vooruitgang verdergaat, hoe makkelijker het wordt om een zichzelf verbeterende AI te bouwen, en hoe minder intelligent je hoeft te zijn om dat te doen. Vanuit strategisch oogpunt is het veel beter te proberen de ontwikkeling van AI de goede richting op te sturen en zo misschien het probleem eens en voor altijd op te lossen. Dit vooral ook omdat haast niemand deze aanpak nog kiest--daarom kunnen we daar veel meer verschil maken. Ik had gehoopt dit in mijn eerste post al een beetje te ondervangen, maar als je toch nog vindt dat het beter is om vergaande kunstmatige intelligentie helemaal tegen te houden, concentreer je dan liever op onverantwoordelijke pogingen tot kunstmatige intelligentie.

Tot nu toe heb ik trouwens haast alleen "negatieve" argumenten voor het bouwen van een Friendly AI genoemd, dwz over het vermijden van risico's. Er zijn ook "positieve" argumenten. Een zich moreel gedragende extreem intelligente AI met toegang tot zo ongeveer alle mogelijke technologie zou willekeurig grote voordelen met zich meebrengen.
Er gaan nu nog bijvoorbeeld zo'n 150.000 mensen per dag dood. Een eventuele mensvriendelijke technologische singulariteit zou dit hoogstwaarschijnlijk overbodig maken. Zie ook de WTA Death Watch (OK, misschien een beetje flauw met zo'n tellertje, maar het idee erachter is juist en belangrijk). Er zijn gelijksoortige argumenten te bedenken over het voorkomen van dingen als ziektes en onderdrukking, en het scheppen van ruimte tot zelfontplooiing.
2. Als wij zo'n schepsel creëren, hebben wij ethisch gezien wel het recht om de stekker er weer uit te trekken. Is dat geen moord?
Niet als je een backup maakt (zoals Yoozer geloof ik al zei). Maar inderdaad: een bewuste, intelligente AI heeft net zo goed rechten als een mens.
3. Is het wel slim om een uitschakelaar in te bouwen in zo'n schepsel? Zodra het wezen zich bewust wordt dat wij de mogelijkheid hebben om zijn leven te beëindigen, maakt ons dat niet automatisch tot zijn vijand? Aan de andere kant zo'n schakelaar niet inbouwen, is ook gevaarlijk. Kunnen wij zo'n wezen ooit vertrouwen, of maakt ons wantrouwen ons juist tot zijn vijand

4. Kun je een wezen onder controle houden dat intelligenter is dan jezelf? Volgens mij is dat op langere termijn onmogelijk.
Inderdaad! En daarom is het juist belangrijk om in te zien dat als je een AI "onder controle moet houden", je eigenlijk al verloren hebt. De AI moet uit zichzelf mee willen werken. Dit houdt ook in dat hij inziet dat hij wel eens in de toekomst kwaadaardig zou kunnen worden, en meewerkt om dit te helpen voorkomen. Hij zal inzien dat mensen op bepaalde gebieden, zoals menselijke ethiek, meer begrijpen dan een beginnende AI, en zal het daarom niet als bedreiging zien als mensen hem uitschakelen--dit op voorwaarde dat hij de programmeurs überhaupt vertrouwt, wat een goede reden is om nooit tegen een AI te liegen, in het bijzonder niet over je motivaties om hem te bouwen op de manier waarop je dat doet.
5a. Kunnen wij die intelligentie wel meten? Het is tenslotte een heel ander soort intelligentie dan wij hebben. Hij zal misschien op een ander type problemen exceleren dan de mens

5b. Ook al meten wij de intelligentie, dan is dat nog steeds een momentopname. Een mens ontwikkelt zijn intelligentie ook geleidelijk. Zo'n kunstmatige intelligentie zal ook een leerproces doormaken. Als hij werkelijk heel intelligent dan krijgt hij misschien door dat hij zijn werkelijke intelligentie beter kan verbergen.
De intelligentie van een AI zal inderdaad van een heel ander soort zijn dan die van een mens. Dat is één van de redenen waarom uitspraken als zou zo'n AI op een gegeven moment een IQ van 10^20 hebben een beetje raar zijn (maar wel effectief om over te brengen hoe extreem zoiets is). IQ zegt bij mensen al niet alles en is voor AI's veel minder geschikt als schaal (laat staan als het 10^20 wordt).

Een "eeeeevil" AI kan misschien tot op zekere hoogte wel zijn intelligentie verbergen. Maar we kunnen nog altijd bijvoorbeeld tellen hoeveel veranderingen hij aanbrengt in zijn programma, en hem even stilzetten en goed onderzoeken als dat te veel wordt.
7. welke rol leggen wij weg voor deze wezens. Welke rollen moeten voorbehouden blijven aan de mens alleen?
Een goede vraag. Ik denk dat "adviseur" wel een goed antwoord is, maar ook veel te beperkt. De eerste AI zou niet alleen moeten adviseren maar ook helpen de overgang te maken naar "posthumanity", voor diegenen die dat willen--een soort "evolutiebegeleider" dus. Verder zou je willen dat hij bijvoorbeeld de produktie van massavernietigingswapens en onvriendelijke AI (in feite ook een massavernietigingswapen) tegenhoudt.
Men heeft bijvoorbeeld het "Sysop scenario" bedacht.
Maar ik denk dat ik tot nu toe te weinig benadrukt heb dat wat er na een singulariteit gebeurt niet of nauwelijks voorspelbaar is--het zou heel goed kunnen dat alle voorspellingen die ik hier doe fout zijn. Dat geldt ook zeker voor het "Sysop scenario". Wel hoop ik je ervan overtuigd te hebben dat wat er gebeurt, gebeurt om een goede reden, als er niets fout gaat.
Een interessante vraag is misschien ook, hoe zal een intelligenter wezen ons beschouwen? Zal hij ons vereren als God, of zal hij ons zien als stadium in de evolutie dat zijn tijd gehad heeft.
Hopelijk geen van beide. Ik zou verwachten dat een goedwillende AI noch onze meester noch onze slaaf wordt; gewoon een wezen met gelijke rechten. Wel veel intelligenter eerst, maar later misschien niet meer.
Als een AI de mensheid helpt, is dat niet omdat hij een slaafje is, maar omdat hij een altruïstisch wezen is dat daar bewust voor kiest.
Er zal nooit iemand kunnen aanwijzen waar de ethiek in de menselijke hersenen zit ingebouwd.
Dat vind ik te kort door de bocht. Voorbeeld: als ik voorstel de aarde eerlijk te verdelen, 99% voor mij en 1% voor de rest van de mensheid, omdat ik dat verdien omdat mijn posts hier op GoT nou eenmaal breder
edit:
(letterlijk breder qua vorm, bedoel ik, niet qua inhoud)
zijn dan de andere posts, denkt/voelt iemand anders: "dat is gelul! arbitrair en oneerlijk!". Ander voorbeeld dat te maken heeft met ethiek: als ik iemand in elkaar geschopt zie worden, krijg ik daar een naar gevoel van in mijn buik (empathie). Die gevoelens/gedachten komen ergens vandaan, ergens uit de fysische structuur van het brein, we hebben goede theorieën waarom ze geëvolueerd zijn, en ik zie niet waarom je dat soort dingen niet ook aan een AI kunt meegeven. Of het een specifiek gebied in de hersenen is dat dat veroorzaakt of dat het op een andere manier gebeurt is dan minder belangrijk.
Gaan de wetenschappelijke ontwikkelingen niet harder dan de mens kan bijhouden. Zouden wij niet eerst in ethiek en intelligentie moeten verder groeien voordat wij ons blootstellen aan deze uitdagingen.
Gaan de ontwikkelingen harder dan we bij kunnen houden? Jazeker.
Het zou fijn zijn als we met zijn allen besloten er nog (zeg) duizend jaar goed over na te denken, niet? Maar probeer maar eens elke naarling op deze planeet daarvan te overtuigen. Als mensen die nadenken over ethiek besluiten de ontwikkeling van kunstmatige intelligentie uit te stellen, wordt de eerste AI gebouwd door iemand die niet nadenkt over ethiek. Óf dat, óf de wereld vergaat in de tussentijd om andere redenen. En wie wil dat? :)

Verwijderd

Topicstarter
Matched: singulariteit
Yoozer schreef op 14 January 2003 @ 01:03:
het project zelf ziet 2030-2040 als een 'realistische' datum.
Het SingInst verwacht geloof ik tussen 2010 en 2020 zijn werk te voltooien, als dat lukt.

2030 (misschien 2040) wordt geloof ik door veel anderen gezien als een realistische datum voor de technologische singulariteit. Ik geloof dat het SingInst meer verwacht van de onderlinge beïnvloeding van allerlei technologieën (met meer kennis van de menselijke hersenen kun je bij wijze van spreken bij iemand Google in zijn hoofd bouwen, en iemand met Google in zijn hoofd kan sneller hersenonderzoek doen). Er zullen ook andere verschillen zijn die de verwachte datum beïnvloeden.

Een onderbouwde voorspelling die rekening houdt met technische vooruitgang op verschillende gebieden en die AI in 2100 (of later) voorspelt heb ik nooit gezien. Dat kan echter komen doordat ik niet goed genoeg gezocht heb.

Over dit onderwerp zijn artikelen geschreven door onder meer Nick Bostrom en Hans Moravec.

Verwijderd

Matched: singulariteit
Verwijderd schreef op 15 januari 2003 @ 20:20:
Het lijkt me moeilijk vol te houden dat een kunstmatig intelligent wezen zich zelfs niet zou gedragen alsof hij bewustzijn heeft ("Weak AI"). Sommigen zien dat als onderdeel van wat het betekent om echt kunstmatig intelligent te zijn, via bijvoorbeeld de Turing-test.
Of een AI ook echt bewustzijn kan hebben in plaats van net doen alsof is weer een andere vraag ("Strong AI"), en trouwens ook een vraag waar het antwoord "ja" op is.
Ik weet niet of dat zo zeker is. Ervaart de kunstmatige intelligentie zijn eigen bewust zijn ook? Ontwikkelt hij een eigen wil? Ontwikkelt hij de wens om te overleven? Gaat hij eigen doelen nastreven? Dus ook zonder dat wij dat in zijn structuur hebben vastgelegd. Pas dan kun je de vraag met Ja beantwoorden. Anders hebben we een logische computer die allerlei complexe vraagstukken kan beantwoorden zonder dat hij er bezwaar tegen heeft dat wij de stekker eruit trekken. Het is juist belangrijk dat wij de overlevingsdrang niet inbouwen, dan hebben we namelijk een manier om het bewustzijn waar te nemen.

Ik ben er van overtuigd dat echte artificiële intelligentie niet bereikt wordt door een computer te bouwen die intelligentie nabootst, ook al is hij niet van echt te onderscheiden. Een schaakcomputer is qua spel niet van een menselijke schaker te onderscheiden, maar hij is zich niet bewust van zijn spel. Hij kent geen angst voor een nederlaag of verheugt zich over een overwinning. Meer dan een simulatie is het niet.
Ik denk dat je een verkeerd beeld hebt van de mogelijkheden die een toekomst met extreem intelligente AI's biedt. Wat ik voorstel is niet dat AI's voor altijd al het werk zullen doen en de dienst uit zullen maken--maar het is wel verreweg het veiligst om te zorgen dat de eerste die zichzelf superintelligent maakt een vriendelijke AI is. Deze AI kan dan mensen helpen alle interessante dingen te verkennen die door een veel grotere intelligentie en geavanceerdere technologie mogelijk gemaakt worden; in het bijzonder kan de AI mensen helpen verder te evolueren hoe ze willen en zelf even intelligent te worden.
Lang voordat wij een kunstmatige intelligentie met een eigen bewustzijn hebben ontwikkeld, zal het punt bereikt worden waarop KI ons allerlei denktaken uit handen gaat nemen. Dit soort ontwikkelingen wordt immers niet gestuurd door wetenschappers, maar door commerciële en militaire belangen. Jouw beeld van de toekomst is een ideaalbeeld, maar zo zit de huidige wereld en ook die van over 30 jaar niet in elkaar.
"Evolueren" is hier eigenlijk het verkeerde woord, omdat het dan voor het eerst niet meer gaat om natuurlijke selectie die werkt op genen, en die genen bevoordeelt die het gunstigst zijn bij het overleven en voortplanten--het gaat om iets heel anders, namelijk dat men zelf bepaalt (op basis van praktisch nut en persoonlijke voorkeuren en morele overwegingen, en dus niet alleen maar op basis van wat handig is bij het overleven en voortplanten) in welke richting men verandert. Het is daarom beter om vanaf dan te spreken van "gestuurde vooruitgang" of iets dergelijks. Meneer evolutie mag dan de beroerdste niet zijn, ik stel voor dat we hem zo snel mogelijk lozen. :P
Ik bedoel met evolueren, geleidelijke verandering, niet darwiniaanse evolutie.
Als dit radicaal klinkt, bedenk dan nogmaals dat een superintelligente AI of een superintelligent geworden mens in korte tijd alle technologie zou kunnen ontwikkelen die we normaal in millennia zouden verwachten; het meeste wat fysisch mogelijk is zou technisch mogelijk worden. Uploaden van de hersenen in een computer is maar één voorbeeld. (Op een gegeven moment heeft het trouwens alleen nog zin te spreken over een "wezen" of "geest" omdat hoe deze intelligentie is begonnen dan voor het eindresultaat niet echt meer uit zal maken; een superintelligente AI zal zich niet gedragen als ons stereotype van een robot, en een superintelligent mens niet als ons stereotype van een mens.)
Misschien ontbreekt het mij aan voorstellingsvermogen, maar weet niet of het technisch ontwerp van de mens toestaat dat je hem even snel superintelligent maakt, ook niet met een superintelligent hulpje. In het uploaden van een mens in een computer geloof ik in het geheel niet. Dit soort dingen wordt mij een beetje te gemakkelijk geuit. Praten over sneller dan licht aandrijving, teleportatie, antizwaartekracht enz. is allemaal heel gemakkelijk. dat wil niet zeggen dat het ook realiseerbaar is als we onze intelligentie opschroeven.
Als er in zo'n situatie nog mensen zijn die ervoor kiezen op de gewone 100% natuurlijke manier kinderen te krijgen, is het misschien mogelijk dat deze een beetje degenereren. Maar voor de mensheid als geheel zal het geen ramp zijn, omdat er altijd mensen zullen zijn die wel van de technologische mogelijkheden gebruikmaken om zich bezig te houden met nieuwe "post-menselijke" uitdagingen, die ervoor kiezen om hun evolutie in eigen hand te nemen. En die zullen er zeker niet voor kiezen zichzelf te veranderen in een hoop vet van 400 kilo met net genoeg hersenen om te chatten. Elk moment je best doen om te overleven zal niet meer nodig zijn, zonder dat dat hoeft te leiden tot wat voor soort verzwakking dan ook. Dat lijkt me juist een goede zaak.
Ook voor individuen hoeft het geen ramp te zijn. Als je bij wijze van spreken als kind van gedegenereerde mensen geboren wordt, kun je er later altijd zelf voor kiezen "geupgraded" of "ontdegenereerd" te worden op technologische wijze.
Is dat allemaal niet wishful thinking. Waarom zou het niet gaan zoals in the timemachine van H.G. Wells. Voor jou is intelligentie kennelijk een doel, maar de meeste mensen streven naar geluk, een zorgeloos bestaan. Ik vraag mij werkelijk af of mensen zich geestelijk en lichamelijk zullen willen inspannen als de noodzaak daartoe is verdwenen. Ik denk dat alles wijst op het tegendeel. Eigenlijk is het zorgeloos bestaan alleen maar nuttig als doel, we kunnen het beter maar nooit bereiken.
Kortom, als er überhaupt nog iets zal degenereren wordt degenereren een bewuste, persoonlijke keuze. :)
En als onze scheppingen onze evolutie voortzetten, betekent dat niet dat wij dat niet tegelijk óók kunnen doen, in allerlei verschillende richtingen.

Het is heel moeilijk om vanuit menselijk oogpunt weer te geven hoeveel nieuwe en complexe problemen en mogelijkheden zich zouden openen voor iemand die ook maar een beetje intelligenter wordt dan voor mensen mogelijk is. Er zijn wel wat pogingen gewaagd, zie bijvoorbeeld de volgende webpagina's.

Staring into the Singularity
Singularity Fun Theory

Bovendien is er op zichzelf niks mis met filosoferen en luieren, als je ermee wegkomt. :)
Ik denk dat het bestaan, zonder de strijd, snel zinloos wordt. Goudvissen die te veel voer krijgen, kwijnen weg. Ik denk dat depressiviteit doodsoorzaak nummer een zal worden.
Misschien spelen we zo inderdaad wel voor God, maar zoals Yoozer uitlegde doen we dat al langer. Zulke argumenten hoorde je geloof ik ook bij de eerste harttransplantaties, maar die zijn nu algemeen aanvaard. Maar goed, het is natuurlijk wel waar dat dit een heel nieuwe en drastische manier van voor God spelen is.
Op mij als atheïst zijnde hebben zulke argumenten weinig uitwerking--als wij niet voor God spelen, wie dan wel? Iemand moet het doen. :)
Maar de meeste mensen zijn geen atheïst, en vanuit dat oogpunt zou ik inderdaad graag willen weten wat de verschillende godsdiensten zouden zeggen over de vraag of het scheppen van kunstmatige intelligentie mogelijk en wenselijk is.
Vanuit een religieus oogpunt denk ik niet dat je er voor moet zijn, op dit moment. Ik vind niet dat wij daarvoor wijs genoeg zijn. Maar ik vraag mij af of je vanuit een atheïstisch standpunt voor moet zijn. Iemand moet het doen is een drogreden, die de feitelijke keuzevrijheid ontkent. Ik vind dat alle ontwikkelingen het menselijke geluk centraal moeten stellen, dat mis ik een beetje. Intelligenter willen worden als doel ongeacht de vraag of we er ook gelukkiger mee worden vind ik slecht doordacht. Vanuit een filosofisch standpunt kan ik geluk niet anders zien als leven in harmonie en zo'n snelle eenzijdige ontwikkeling lijkt mij ons eerder daarvan weg te voeren.

Een geleidelijke ontwikkeling waarbij de mens de kans krijgt zich steeds aan te passen aan de nieuwe situatie lijkt mij betere kansen te bieden op duurzaam geluk dan deze race naar het onbekende. Bekijk het eens anders, misschien zijn de dolfijnen wel superintelligent en veel gelukkiger dan wij. Het lijkt wel of we met zijn allen in een ruimteschip naar Sirius stappen, zonder dat er zekerheid is of daar wel een leefbare planeet is. Waarom die haast, onze inspanningen kunnen beter gericht zijn op het bereiken van een stabiele levensvatbare gelukkige samenleving en vandaar uit een geleidelijke ontwikkeling naar meer intelligentie. Dat lijkt mij de juiste weg voor de mensheid. Wordt dit streven niet te veel beheerst door het blinde verlangen van de wetenschapper die alles nog binnen zijn eigen leven gerealiseerd wil zien?
Het is helemaal waar dat de risico's enorm zijn, niet zozeer enorm wat betreft de kans dat het fout gaat, maar wel wat betreft hoeveel er op het spel staat. Maar de risico's van niets doen of de ontwikkelingen tevergeefs voor altijd proberen tegen te houden zijn nog veel groter.
Het leven is geen "God-game" waar wij de beslissingen voor de hele mensheid kunnen bepalen. Het zou misschien fijn zijn (of niet) als iedereen op de hele wereld besloot zich niet voorbij een bepaald punt met gevaarlijke dingen als AI in te laten, maar het is gewoon niet realistisch om te verwachten dat je er zo veel invloed op kunt hebben tenzij je dictator van de hele wereld bent. Hoe langer de technische vooruitgang verdergaat, hoe makkelijker het wordt om een zichzelf verbeterende AI te bouwen, en hoe minder intelligent je hoeft te zijn om dat te doen. Vanuit strategisch oogpunt is het veel beter te proberen de ontwikkeling van AI de goede richting op te sturen en zo misschien het probleem eens en voor altijd op te lossen. Dit vooral ook omdat haast niemand deze aanpak nog kiest--daarom kunnen we daar veel meer verschil maken. Ik had gehoopt dit in mijn eerste post al een beetje te ondervangen, maar als je toch nog vindt dat het beter is om vergaande kunstmatige intelligentie helemaal tegen te houden, concentreer je dan liever op onverantwoordelijke pogingen tot kunstmatige intelligentie.
Iedereen heeft het recht zijn eigen leven richting te geven. Ik vindt niet dat wetenschappers het recht hebben, beslissingen te nemen voor de mensheid en haar nageslacht. Ik vind het vreemd dat wetenschappers dat zelf niet inzien. Een overkoepelend orgaan van wetenschappers zou de mogelijkheid namelijk wel kunnen hebben om de ontwikkelingen te sturen.
Tot nu toe heb ik trouwens haast alleen "negatieve" argumenten voor het bouwen van een Friendly AI genoemd, dwz over het vermijden van risico's. Er zijn ook "positieve" argumenten. Een zich moreel gedragende extreem intelligente AI met toegang tot zo ongeveer alle mogelijke technologie zou willekeurig grote voordelen met zich meebrengen.
Er gaan nu nog bijvoorbeeld zo'n 150.000 mensen per dag dood. Een eventuele mensvriendelijke technologische singulariteit zou dit hoogstwaarschijnlijk overbodig maken. Zie ook de WTA Death Watch (OK, misschien een beetje flauw met zo'n tellertje, maar het idee erachter is juist en belangrijk). Er zijn gelijksoortige argumenten te bedenken over het voorkomen van dingen als ziektes en onderdrukking, en het scheppen van ruimte tot zelfontplooiing.
Een moreel gedragende AI lijkt mij een wensdroom. Moraliteit laat zich niet zo eenvoudig in regels vastleggen. Een echte kunstmatige intelligentie is net zo onberekenbaar als een mens, omdat hij een eigen wil heeft.

De dood, is het een zegen of een vloek? We zijn bang voor de dood, maar eeuwig leven lijkt mij eerlijk gezegd een hel. (Zo ziet het boeddisme het ook)

Even de grondvesten van ons bestaan veranderen, zal waarschijnlijk verkeerd gaan uitpakken. We moeten uitkijken voor te gemakkelijke oplossingen. Stuwdammen en monocultures en pesticiden leken ook gemakkelijke, probleemloze oplossingen. In praktijk blijkt steeds weer dat alleen de keerzijden verschuiven naar iets anders.
Niet als je een backup maakt (zoals Yoozer geloof ik al zei). Maar inderdaad: een bewuste, intelligente AI heeft net zo goed rechten als een mens.
Goed hij heeft rechten. Mag hij zichzelf ook voortplanten? Mag hij zijn eigen doelen gaan nastreven onafhankelijk van de mens? Mag hij zelf nieuwe intelligentie gaan ontwikkelen? Mag hij rechten claimen op energiebronnen? Dat kan nog leuke problemen gaan opleveren. Als je hem echt mensenrechten geeft, mag je hem niet zomaar uitschakelen, ook al is er een backup. Net zo min als ze jou tegen je wil mogen invriezen.
Inderdaad! En daarom is het juist belangrijk om in te zien dat als je een AI "onder controle moet houden", je eigenlijk al verloren hebt. De AI moet uit zichzelf mee willen werken. Dit houdt ook in dat hij inziet dat hij wel eens in de toekomst kwaadaardig zou kunnen worden, en meewerkt om dit te helpen voorkomen. Hij zal inzien dat mensen op bepaalde gebieden, zoals menselijke ethiek, meer begrijpen dan een beginnende AI, en zal het daarom niet als bedreiging zien als mensen hem uitschakelen--dit op voorwaarde dat hij de programmeurs überhaupt vertrouwt, wat een goede reden is om nooit tegen een AI te liegen, in het bijzonder niet over je motivaties om hem te bouwen op de manier waarop je dat doet.
Dat lijkt mij toch wensdenken, misschien is de AI wel als HAL en ziet hij dat helemaal niet in, maar is hij slim genoeg om zich koest te houden, tot hij een manier heeft gevonden om die lastige mensen uit te schakelen.
De intelligentie van een AI zal inderdaad van een heel ander soort zijn dan die van een mens. Dat is één van de redenen waarom uitspraken als zou zo'n AI op een gegeven moment een IQ van 10^20 hebben een beetje raar zijn (maar wel effectief om over te brengen hoe extreem zoiets is). IQ zegt bij mensen al niet alles en is voor AI's veel minder geschikt als schaal (laat staan als het 10^20 wordt).

Een "eeeeevil" AI kan misschien tot op zekere hoogte wel zijn intelligentie verbergen. Maar we kunnen nog altijd bijvoorbeeld tellen hoeveel veranderingen hij aanbrengt in zijn programma, en hem even stilzetten en goed onderzoeken als dat te veel wordt.
Nee dat kun je niet. Dit soort AI's worden niet gemaakt, maar ontwikkelen zich zelf. Daarom kunnen wij de structuur daarvan ook niet doorgronden. Wij kunnen aan de buitenkant hooguit vaststellen dat de complexiteit is toegenomen, meer niet. Over de intelligentie kunnen wij alleen oordelen aan de hand van zijn uitingen.
Een goede vraag. Ik denk dat "adviseur" wel een goed antwoord is, maar ook veel te beperkt. De eerste AI zou niet alleen moeten adviseren maar ook helpen de overgang te maken naar "posthumanity", voor diegenen die dat willen--een soort "evolutiebegeleider" dus. Verder zou je willen dat hij bijvoorbeeld de produktie van massavernietigingswapens en onvriendelijke AI (in feite ook een massavernietigingswapen) tegenhoudt.
Men heeft bijvoorbeeld het "Sysop scenario" bedacht.
Maar ik denk dat ik tot nu toe te weinig benadrukt heb dat wat er na een singulariteit gebeurt niet of nauwelijks voorspelbaar is--het zou heel goed kunnen dat alle voorspellingen die ik hier doe fout zijn. Dat geldt ook zeker voor het "Sysop scenario". Wel hoop ik je ervan overtuigd te hebben dat wat er gebeurt, gebeurt om een goede reden, als er niets fout gaat.
Precies, en dat is een goede reden om er voorlopig niet aan te beginnen. We willen toch zeker niet onze eigen ondergang bewerkstelligen enkel om de nieuwsgierigheid van een paar wetenschappers te bevredigen.
Hopelijk geen van beide. Ik zou verwachten dat een goedwillende AI noch onze meester noch onze slaaf wordt; gewoon een wezen met gelijke rechten. Wel veel intelligenter eerst, maar later misschien niet meer.
Als een AI de mensheid helpt, is dat niet omdat hij een slaafje is, maar omdat hij een altruïstisch wezen is dat daar bewust voor kiest.
Toch is ook dit weer wensdenken. Kijk eens wat er met de Neanderthaler is gebeurd. Als de AI bewust is in en eigen doelen gaat nastreven, dan zal de dominante soort de andere verdringen.
Dat vind ik te kort door de bocht. Voorbeeld: als ik voorstel de aarde eerlijk te verdelen, 99% voor mij en 1% voor de rest van de mensheid, omdat ik dat verdien omdat mijn posts hier op GoT nou eenmaal breder
edit:
(letterlijk breder qua vorm, bedoel ik, niet qua inhoud)
zijn dan de andere posts, denkt/voelt iemand anders: "dat is gelul! arbitrair en oneerlijk!". Ander voorbeeld dat te maken heeft met ethiek: als ik iemand in elkaar geschopt zie worden, krijg ik daar een naar gevoel van in mijn buik (empathie). Die gevoelens/gedachten komen ergens vandaan, ergens uit de fysische structuur van het brein, we hebben goede theorieën waarom ze geëvolueerd zijn, en ik zie niet waarom je dat soort dingen niet ook aan een AI kunt meegeven. Of het een specifiek gebied in de hersenen is dat dat veroorzaakt of dat het op een andere manier gebeurt is dan minder belangrijk.
Je vergeet een ding. Onze ethiek is er niet ingebracht maar het gevolg van een langdurig en uniek selectieproces. Dan nog is deze ethiek slechts in potentie aanwezig en moet middels opvoeding worden vorm gegeven. En uiteindelijk is het resultaat nog onbetrouwbaar. Dit soort AI worden door ons niet gebouwd, maar we laten ze ontwikkelen, maar het eindproduct zal door zijn complexiteit onvoorspelbaar zijn.
Gaan de ontwikkelingen harder dan we bij kunnen houden? Jazeker.
Het zou fijn zijn als we met zijn allen besloten er nog (zeg) duizend jaar goed over na te denken, niet? Maar probeer maar eens elke naarling op deze planeet daarvan te overtuigen. Als mensen die nadenken over ethiek besluiten de ontwikkeling van kunstmatige intelligentie uit te stellen, wordt de eerste AI gebouwd door iemand die niet nadenkt over ethiek. Óf dat, óf de wereld vergaat in de tussentijd om andere redenen. En wie wil dat? :)
Daarom zou dit onderzoek niet door een land maar in een mondiale samenwerking moeten gebeuren. Wanneer zou blijken dat een land op eigen houtje aan de gang gaat kunnen alle andere landen dat land hard aanpakken.

Dat er nu onvoldoende greep op de ontwikkelingen is moet niet een reden zijn om schouderophalend op dezelfde voet door te gaan, maar te zorgen dat we snel meer greep op de zaak krijgen voor het te laat is.

Verwijderd

Geen matches
Verwijderd schreef op 15 januari 2003 @ 16:23:
[...]
Je gaat er dan vanuit dat die groep van een 'minder hoog niveau' minder intelligent nageslacht levert.
Daar ga ik idd vanuit.
Ik denk niet dat je daar vanuit kunt gaan. Neem bijv. iemand met het syndroom van down, zo iemand kan gewoon volkomen normaal nageslacht leveren.
1. Je hebt gelijk, het kan. Maar de kans daarop is kleiner. Maar we hebben het hier dan ook over een groep waarover de kansen evenredig verdeeld worden.
2. Bij twee personen met het down-syndroom neemt de kans nog meer af op een persoon met het juiste aantal chromosomen.
3. Het down-syndroom is niet isomorf aan een lage intelligentie. Het klopt dat mensen met het down-syndroom vaak een lagere intelligentie hebben, maar het is niet zo dat mensen met een lage intelligentie het down-syndroom hebben... zeer zeker niet
(vervang "lagere intelligentie" eens door "niet hard kunnen lopen" en "down syndroom" door "mensen die met één been zijn geboren", dan zie je waar je vergelijking spaak loopt.)

Ik denk dat een lage intelligentie voor een deel genetisch wordt bepaald (en een deel door de omgeving als omgevingsfactoren, bepaalde ziektes (bv. down-syndroom, maar ook dat is weer ten dele genetisch) en bijgebrachte kennis/inzichten in de eerste levensjaren) en daar ben ik ook vanuit gegaan in mijn vorige post.

Maargoed, dit gaat nu veel te off-topic, al vind ik het wel een interessante discussie.

[ Voor 6% gewijzigd door Verwijderd op 16-01-2003 09:25 . Reden: typo ]

Pagina: 1