Ethische beschouwing van een robot

Pagina: 1
Acties:
  • 286 views sinds 30-01-2008
  • Reageer

  • Eelke Spaak
  • Registratie: Juni 2001
  • Laatst online: 27-12-2025
Heren,

Laatst (donderdag 9 oktober) was ik op een symposium over Kunstmatige Intelligentie in Amsterdam (BNAIS 2003), en het laatste onderdeel was een paneldiscussie met als titel 'Ethische perspectieven in de kunstmatige intelligentie'. Pas tegen het einde van deze discussie begon het echt over ethiek te gaan, dus hadden we niet zo heel veel tijd meer om hierop in te gaan. Daarom lijkt het me interessant om hier op W&L die discussie (in een wat aangepaste vorm) voort te zetten.

Stel dat de mensheid op een gegeven moment 'echte' Kunstmatige Intelligentie heeft ontwikkeld. Hiermee bedoel ik dus niet een programma of robot dat sommetjes kan oplossen of misschien wel hele ingewikkelde afwegingen kan maken, maar een agens dat op dezelfde manier met de wereld interacteert als wij. Dit agens komt dus door een Turingtest heen.

De vraag is of het ethisch gezien acceptabel is om dit agens uit te zetten. Persoonlijk vind ik van niet, aangezien hij (of zij) volgens mij net zozeer leeft als wij.

Een belangrijk discussiepunt hierbij is of dit agens wel of niet een bewustzijn heeft, en of hij wel of niet heeft wat wij 'vrije wil' noemen (ik zeg expres niet 'of hij vrije wil heeft', want ik ben er nog niet helemaal uit of onze wil eigenlijk wel vrij is). Het lijkt mij dat wanneer een agens van buiten (dus op basis van zijn interactie met de wereld) niet te onderscheiden is van een mens, wij ook niet meer kunnen concluderen dat dit agens geen bewustzijn heeft. Immers, ik kan van andere mensen ook niet op andere gronden concluderen dat ze bewustzijn hebben; dit gebeurt op basis van hun interactie met de wereld.

TheStreme - Share anything with anyone


Verwijderd

Een vraag die schakers bezig hield was: Schaakt een schaakcomputer? Daar is nooit een eensluidend antwoord op gevonden.

Een vraag die hieraan vooraf moet gaan, is vind ik: Moeten wij uberhaupt zo iets scheppen. Ik vind van niet. Maar stel dat dit toevallig wordt geschapen. Nou dat kan eigenlijk al niet goed. Want om een computer exact te laten reageren als een mens zul toch vreselijk je best moeten doen. Het veronderstelt namelijk een helehoop meer dan rationeel denkvermogen namelijk: emoties, ervaringen van vreugde en leed, besef van goed en kwaad, geweten, overlevingsdrang. Dat soort dingen zal de ai alleen hebben als wij die er expliciet instoppen. Nadat wij dat er expliciet hebben ingestopt, kun je moeilijk beweren dat we hier met een bewust wezen hebben te maken, want zo'n AI reageert voor zijn doen onnatuurlijk en geprogrammeerd.

Stel dat je al die dingen er uitlaat en je beperkt je tot een volslagen rationele intelligentie. Dan heeft dat weinig te maken met een mens zoals wij die definieren. Waarschijnlijk zal hij ook geen overlevingsdrang hebben, waarom zou die. We programmeren die er natuurlijk expres niet in. Zou het apparaat toch spontaan levensdrang ontwikkelen dan roept dat zeker vragen op. Mij lijkt dat zo'n inteligentie het meest zal lijken op een psychopaat, want zonder gevoel zal hij rucksichtlos zijn eigen rationele belang volgen. De stekker eruit trekken lijkt mij dan ook niet echt moreel onverantwoord, want zo'n wezen kan wel eens heel gevaarlijk worden als hij beseft dat wij de stekker er uit kunnen trekken.

Wat wij ook creeeren , het zal zonder menselijk lichaam nooit op een mens lijken en aangezien onze ethiek zich beperkt tot de mens, zal dit wezen er niet onder vallen. Mogen wij een semi-intelligent dier al doden voor onze behoefte dan zeker zo'n wezen. Ik zou wel tien maal uitkijken voor we een ai scheppen die velen malen intelligenter is dan de mens en ook nog macht heeft.

  • Eelke Spaak
  • Registratie: Juni 2001
  • Laatst online: 27-12-2025
Verwijderd schreef op 10 oktober 2003 @ 23:53:
Een vraag die schakers bezig hield was: Schaakt een schaakcomputer? Daar is nooit een eensluidend antwoord op gevonden.

Een vraag die hieraan vooraf moet gaan, is vind ik: Moeten wij uberhaupt zo iets scheppen. Ik vind van niet. Maar stel dat dit toevallig wordt geschapen. Nou dat kan eigenlijk al niet goed. Want om een computer exact te laten reageren als een mens zul toch vreselijk je best moeten doen. Het veronderstelt namelijk een helehoop meer dan rationeel denkvermogen namelijk: emoties, ervaringen van vreugde en leed, besef van goed en kwaad, geweten, overlevingsdrang. Dat soort dingen zal de ai alleen hebben als wij die er expliciet instoppen. Nadat wij dat er expliciet hebben ingestopt, kun je moeilijk beweren dat we hier met een bewust wezen hebben te maken, want zo'n AI reageert voor zijn doen onnatuurlijk en geprogrammeerd.
Nee, dit is niet de kunstmatige intelligentie die ik bedoel. Ik heb het over een Intelligentie die niet exact door ons is voorgeprogrammeerd. Deze intelligentie zal waarschijnlijk moeten ontstaan door een netwerk van simpele eenheden (à la natuurlijke neuronen) die op een bepaalde manier verbindingen aangaan waardoor een vorm van emergent intelligentie ontstaat. Op deze manier zal deze intelligentie op precies dezelfde manier kunnen redeneren als wij, inclusief gevoelens als vreugde, leed en geweten.

Misschien de makkelijkste manier om je voor te stellen wat ik bedoel is dat je je inbeeldt dat wij de exacte structuur van de neuronen in een menselijk brein kennen en dat we chips, die op exact dezelfde manier funtioneren als neuronen, op exact dezelfde manier met elkaar verbinden als de biologische neuronen. Nu is er volgens mij geen onderscheid meer te maken tussen de gedachtenprocessen binnen het oorspronkelijke natuurlijke brein en het silicium brein.
Stel dat je al die dingen er uitlaat en je beperkt je tot een volslagen rationele intelligentie. Dan heeft dat weinig te maken met een mens zoals wij die definieren. Waarschijnlijk zal hij ook geen overlevingsdrang hebben, waarom zou die. We programmeren die er natuurlijk expres niet in. Zou het apparaat toch spontaan levensdrang ontwikkelen dan roept dat zeker vragen op. Mij lijkt dat zo'n inteligentie het meest zal lijken op een psychopaat, want zonder gevoel zal hij rucksichtlos zijn eigen rationele belang volgen. De stekker eruit trekken lijkt mij dan ook niet echt moreel onverantwoord, want zo'n wezen kan wel eens heel gevaarlijk worden als hij beseft dat wij de stekker er uit kunnen trekken.
Je hebt denk ik gemist dat ik in mijn startpost expliciet zeg dat dit agens op dezelfde manier zal interacteren met de wereld als wij mensen. Tenzij je wil beweren dat mensen doorgaans als puur rationele psychopaten (als die twee predikaten al samen kunnen gaan) tegen de wereld aankijken gaat jouw argumentatie dus niet op.
Wat wij ook creeeren , het zal zonder menselijk lichaam nooit op een mens lijken en aangezien onze ethiek zich beperkt tot de mens, zal dit wezen er niet onder vallen. Mogen wij een semi-intelligent dier al doden voor onze behoefte dan zeker zo'n wezen. Ik zou wel tien maal uitkijken voor we een ai scheppen die velen malen intelligenter is dan de mens en ook nog macht heeft.
De restrictie van een lichaam dat precies op dat van een mens lijkt lijkt mij een enigszins triviale toevoeging. Wanneer het mogelijk is om een geest te maken die exact op die van een mens lijkt, is het volgens mij al helemaal mogelijk om een dergelijk lichaam te maken.

Verder vind ik dat onze menselijkheid niet afhangt van het lichaam, maar van de geest.

TheStreme - Share anything with anyone


Verwijderd

Vladimir G. schreef op 11 October 2003 @ 00:06:
Je hebt denk ik gemist dat ik in mijn startpost expliciet zeg dat dit agens op dezelfde manier zal interacteren met de wereld als wij mensen. Tenzij je wil beweren dat mensen doorgaans als puur rationele psychopaten (als die twee predikaten al samen kunnen gaan) tegen de wereld aankijken gaat jouw argumentatie dus niet op.
Zonder de gevoelswereld van de mens zal het een psychopaat zijn. Onze aanhankklijkheid heeft alles te maken met ons zoogdierkarakter, dat is niet iets dat spontaan ontstaat in een kunstmatige intelligentie.
De restrictie van een lichaam dat precies op dat van een mens lijkt lijkt mij een enigszins triviale toevoeging. Wanneer het mogelijk is om een geest te maken die exact op die van een mens lijkt, is het volgens mij al helemaal mogelijk om een dergelijk lichaam te maken.

Verder vind ik dat onze menselijkheid niet afhangt van het lichaam, maar van de geest.
Een gedachtenfout die ik op dit forum regelmatig tegenkom. Het idee dat je lichaam en geest kan scheiden. Dat is absoluut niet waar. Een brein kan niet bestaan zonder lichaam, ons denken is meer emotioneel dan rationeel en die emoties worden sterk beinvloed door onze lichaamsprocessen. Je kunt dat mischien emuleren, al denk ik van niet, maar dan kun je niet meer van bewustzijn spreken. Spontaan zal het zeker niet ontstaan.

Verwijderd

Vladimir_G

Vind je? Hoe kan je, als je geen menselijk lichaam hebt, dan zaken als sensorische waarneming ervaren? Of is dat geen aspect van je menselijkheid? Er is fysiologisch nauwelijks tot geen onderscheid te maken tussen waar het lichaam eindigt en de "geest" begint, waarom zou dat op een hoger niveau ineens wel kunnen? Er zal ongetwijfeld een kunstmatige intelligentie geschapen kunnen worden zonder lichaam, zelfs een waarvan je zou kunnen zeggen dat die emoties en bewustzijn heeft, maar daarmee is het nog geen mens...

lasker
Je kunt dat mischien emuleren, al denk ik van niet, maar dan kun je niet meer van bewustzijn spreken.
Waarom niet? Onze kennis over de fundamentele chemie is voldoende om in principe de volledige chemische machinerie van een mens te kunnen emuleren, atoom voor atoom. Slechts vele ordes van groottes in rekenkracht, en veel kennis van celbiologie en moleculaire biologie scheiden ons hiervan. Hoewel praktische problemen misschien zullen voorkomen dat het ooit zover komt, zie ik geen fundamentele barrieres.

Maar zou een mens waarvan elke atomaire interactie van lichaam, geest en omgeving door een computer gesimuleerd wordt, geen mens zijn met een zelfbewustzijn, een verstand, emoties, sensorische prikkels, enzovoorts, die zich als hij unieke prikkels krijgt ook zal ontwikkelen tot een uniek individu, wat onmogelijk meer een simulatie genoemd kan worden? En zou DAT geen mens zijn?

[ Voor 52% gewijzigd door Verwijderd op 11-10-2003 00:36 ]


Verwijderd

Verwijderd schreef op 11 October 2003 @ 00:29:
Vladimir_G
Vind je? Hoe kan je, als je geen menselijk lichaam hebt, dan zaken als sensorische waarneming ervaren? Of is dat geen aspect van je menselijkheid? Er is fysiologisch nauwelijks tot geen onderscheid te maken tussen waar het lichaam eindigt en de "geest" begint, waarom zou dat op een hoger niveau ineens wel kunnen? Er zal ongetwijfeld een kunstmatige intelligentie geschapen kunnen worden zonder lichaam, zelfs een waarvan je zou kunnen zeggen dat die emoties en bewustzijn heeft, maar daarmee is het nog geen mens...
Om sensorische waarneming te ervaren moet je toch eerst een lichaam hebben gehad. Emotisch en ervaringen uit het verleden worden vastgelegd in de struktuur van de hersenen, maar zonder lichaam ontstaan deze ervaringen niet tenzijn je ze bewust in zou programmeren.

Een kunstmatige intelligentie zonder lichaam zal geen voor ons herkenbare emoties hebben. En bewustzijn dat weet niemand. Het zal zeker niet lijken op een mens zonder lichaam. Waarschijnlijk zal het ons eerder dwingen om ons concept van bewust intelligentie te veranderen. Vanuit een menslijk perspectief kan het nooit onder onze ethiek vallen. De trouwe vriendelijke robot verhalen uit de SF zijn een hoop bull.

Om aan te geven hoe belangrijk het lichaam is voor de mens: Mensen die een nier of harttransplantatie ondergaan, krijgen vaak een persoonlijkheidsverandering. Wij zijn veel meer dan verzameling neuronen. De produktie van allerlei hormonen en ander stoffen, welke vaak autonoom door het lichaam gestuurd wordt, heeft grote invloed op ons hele denken. Kijk alleen maar eens wat er in de puberteit allemaal gebeurt.

Verwijderd

Verwijderd schreef op 11 oktober 2003 @ 00:29:
Vladimir_G
Waarom niet? Onze kennis over de fundamentele chemie is voldoende om in principe de volledige chemische machinerie van een mens te kunnen emuleren, atoom voor atoom. Slechts vele ordes van groottes in rekenkracht, en veel kennis van celbiologie en moleculaire biologie scheiden ons hiervan. Hoewel praktische problemen misschien zullen voorkomen dat het ooit zover komt, zie ik geen fundamentele barrieres.
Zo ver zijn we nog lang niet, echt niet. Het is ook zeer de vraag of we ooit computers zullen kunnen ontwikkelen die zo krachtig zijn. Ik betwijfel dat zeer.
Maar zou een mens waarvan elke atomaire interactie van lichaam, geest en omgeving door een computer gesimuleerd wordt, geen mens zijn met een zelfbewustzijn, een verstand, emoties, sensorische prikkels, enzovoorts, die zich als hij unieke prikkels krijgt ook zal ontwikkelen tot een uniek individu, wat onmogelijk meer een simulatie genoemd kan worden? En zou DAT geen mens zijn?
Je zegt het zelf al: dit is een gemanipuleerde simulatie. En waarom al die moeite, het is veel eenvoudiger, en oneindig veel goedkoper om een kloon te maken.

Maar zelfs als. Dan doet zich nog de filosofische vraag voor of een simulatie wel het zelfde is als het gesimuleerde. Ofwel Schaakt de schaakcomputer wel. Ogenschijnlijk wel want hij reageert zoals een schaker doet. Maar waar de schaker zich bewust is van stellingen en die ook emotioneel beoordeelt, angstgevoelens en opwinding kent is bij de schaakcomputer van dit alles geen sprake.

Stel dat je een exacte simulatie zou kunnen maken van Captain proton en we zouden hem een fractie voor kunnen laten lopen op de echte Captain Proton, zodat hij steeds wat eerder reageert, wat hebben we dan bewezen? Dat de simulatie denkt of dat Captain Proton slechts een biologische computer zonder vrije wil is? Gelukkig bestaat dat gevaar niet.

Verwijderd

Das toevallig ik ben al een tijdje bezig me te verdiepen in Neurale netwerken (ik wil namelijk een echte slimme autonome rijdende robot bouwen), recent een proefschrift gelezen over Gasnetworks en spiked neural networks. Na het lezen van deze materie ben ik ervan overtuigt dat de mensheid binnen afzienbare tijd in staat moet zijn zelfbewustzijn in een apparaat in te bouwen.

Voor degene die zijn geinteresseerd : http://www.cogs.susx.ac.u.../Papers/Smith_PhD2002.pdf

edit: bovenstaande link is een pdf van 2meg dus dat kan ffe duren :)

Of het etisch is zo'n agent uit te zetten?
Is het etisch om zo'n agent te "bouwen"?, en hem daarna in een kooitje op te sluiten of hem met al zijn mankementen los te laten in de echte wereld?
Volgens mij is het niet etisch verantwoord, maar de mens is zo nieuwsgierig dat hij zich uiteindelijk niets aantrekt van allerlei etische vraagstukken. Eigenlijk zouden we niet zo slim moeten zijn dan was de wereld veel mooier dan de rotzooi die we er nu met z'n allen van hebben gemaakt.

[ Voor 6% gewijzigd door Verwijderd op 11-10-2003 21:32 ]


Verwijderd

Verwijderd schreef op 11 October 2003 @ 00:54:
Stel dat je een exacte simulatie zou kunnen maken van Captain proton en we zouden hem een fractie voor kunnen laten lopen op de echte Captain Proton, zodat hij steeds wat eerder reageert, wat hebben we dan bewezen? Dat de simulatie denkt of dat Captain Proton slechts een biologische computer zonder vrije wil is? Gelukkig bestaat dat gevaar niet.
Dan heb je beide bewezen. Je hebt ook nog eens bewezen dat het heelal deterministisch is. Maar het lijkt mij ook onmogelijk een Captain Proton te maken die voorloopt op de echte. Achterlopen is fundamenteel al eerder mogelijk lijkt mij. Maar omdat je kopie exact hetzelfde is kun je weer zeggen dat de echte voorloopt op de kopie, wat hetzelfde is als de eerste situatie. Maar ja, het kan ook heel goed dat het heelal niet deterministisch is en dan hebben we twee anders reagerende Captain Protons waarvan niet te zien is welke de eerste was.

  • Eelke Spaak
  • Registratie: Juni 2001
  • Laatst online: 27-12-2025
Captain Proton
Vind je? Hoe kan je, als je geen menselijk lichaam hebt, dan zaken als sensorische waarneming ervaren? Of is dat geen aspect van je menselijkheid? Er is fysiologisch nauwelijks tot geen onderscheid te maken tussen waar het lichaam eindigt en de "geest" begint, waarom zou dat op een hoger niveau ineens wel kunnen? Er zal ongetwijfeld een kunstmatige intelligentie geschapen kunnen worden zonder lichaam, zelfs een waarvan je zou kunnen zeggen dat die emoties en bewustzijn heeft, maar daarmee is het nog geen mens...
Laat ik het even wat anders formuleren: ik denk dat het niet per se nodig is een menselijk lichaam te hebben om niet-onderscheidbaar te zijn van een mens. Als voorbeeld kan je bijvoorbeeld Lt. Commander Data nemen (uit Star Trek natuurlijk); wanneer we een dergelijke robot kunnen bouwen noem ik dat geen menselijk lichaam, maar wel één die niet te onderscheiden is van een menselijk lichaam.

(Data heeft natuurlijk oorspronkelijk geen emoties omwille van de show, maar ik heb het nu over zijn lichaam dat we moeten hebben, niet over de geest.)
lasker
Een gedachtenfout die ik op dit forum regelmatig tegenkom. Het idee dat je lichaam en geest kan scheiden. Dat is absoluut niet waar. Een brein kan niet bestaan zonder lichaam, ons denken is meer emotioneel dan rationeel en die emoties worden sterk beinvloed door onze lichaamsprocessen. Je kunt dat mischien emuleren, al denk ik van niet, maar dan kun je niet meer van bewustzijn spreken. Spontaan zal het zeker niet ontstaan.
Ook die lichaamsprocessen zijn op een zeer elementair niveau te simuleren. Let wel, simuleren, en niet emuleren. Emuleren impliceert dat het nep is, en dat we er bewust in hebben gestopt wat wij willen dat eruit komt. Met simuleren bedoel ik dat we dingen op de neuron-chips loslaten die exact hetzelfde effect hebben op die chips als hormonen op menselijke neuronen.
lasker
Maar zelfs als. Dan doet zich nog de filosofische vraag voor of een simulatie wel het zelfde is als het gesimuleerde. Ofwel Schaakt de schaakcomputer wel. Ogenschijnlijk wel want hij reageert zoals een schaker doet. Maar waar de schaker zich bewust is van stellingen en die ook emotioneel beoordeelt, angstgevoelens en opwinding kent is bij de schaakcomputer van dit alles geen sprake.
Er is een fundamenteel verschil tussen een schaakcomputer en een volledige kunstmatige intelligentie. De schaakcomputer speelt een aantal regeltjes af die er door mensen in zijn gestopt om hem zo goed mogelijk te laten schaken. Een echte kunstmatige intelligentie zal ook kunnen schaken, en zal dit op precies dezelfde manier doen als een mens. Hij zal zich dus ook bewust zijn van stelingen en ze emotioneel kunnen beoordelen.
lasker
Stel dat je een exacte simulatie zou kunnen maken van Captain proton en we zouden hem een fractie voor kunnen laten lopen op de echte Captain Proton, zodat hij steeds wat eerder reageert, wat hebben we dan bewezen? Dat de simulatie denkt of dat Captain Proton slechts een biologische computer zonder vrije wil is? Gelukkig bestaat dat gevaar niet.
Zoals wieikke al min of meer zei, in principe kan je 'kiezen' welke van de twee je hebt bewezen. Volgens mij zijn mensen eigenlijk weinig meer dan biologische computers (zonder je te beroepen op een hogere macht is het zelfs onmogelijk om anders te concluderen). En als we concluderen dat Captain Proton denkt (op basis van zijn interactie met de wereld), hoe zouden we dan kunnen ontkennen dat zijn exacte simulatie denkt?
een_naam
Of het etisch is zo'n agent uit te zetten?
Is het etisch om zo'n agent te "bouwen"?, en hem daarna in een kooitje op te sluiten of hem met al zijn mankementen los te laten in de echte wereld?
Volgens mij is het niet etisch verantwoord, maar de mens is zo nieuwsgierig dat hij zich uiteindelijk niets aantrekt van allerlei etische vraagstukken.
Inderdaad, de mens zal zijn nieuwsgierigheid toch laten zegevieren over enige ethische scrupules. Verder denk ik dat het ethisch best OK is om een kunstmatige intelligentie te creëren; het leert ons namelijk erg veel over onszelf en de aard van onze geest.

offtopic:
Je linkje werkt niet hiero.
een_naam
Eigenlijk zouden we niet zo slim moeten zijn dan was de wereld veel mooier dan de rotzooi die we er nu met z'n allen van hebben gemaakt.
En dan was er nu niemand die van die schoonheid kon genieten... :/
wieikke
Maar ja, het kan ook heel goed dat het heelal niet deterministisch is en dan hebben we twee anders reagerende Captain Protons waarvan niet te zien is welke de eerste was.
En dan zouden we nog steeds moeten concluderen dat de exacte simulatie denkt en een bewustzijn heeft.

TheStreme - Share anything with anyone


Verwijderd

allen

Biocyberethics: should we stop a company from unplugging an intelligent computer?

lasker
Een vraag die schakers bezig hield was: Schaakt een schaakcomputer? Daar is nooit een eensluidend antwoord op gevonden.
Dat lijkt me geen moeilijke vraag. Natuurlijk schaakt een schaakcomputer---hij doet zelfs niets anders.

Maar schaakt een schaakcomputer zoals mensen schaken? Nee, natuurlijk niet. Een mens rekent een beetje, speelt een beetje op geheugen, en gebruikt veel intuïtie en ervaring. Een schaakcomputer volgt wat ingeprogrammeerde vuistregeltjes en rekent verder alles met "brute force" door.

Zodra een schaakcomputer intelligent denkt op manieren die je net zo goed buiten het schaakbord kan toepassen, is het eigenlijk geen schaakcomputer meer maar een algemeen intelligent wezen. Tenzij je Kasparov ook een biologische schaakcomputer wilt noemen.
Want om een computer exact te laten reageren als een mens zul toch vreselijk je best moeten doen. Het veronderstelt namelijk een helehoop meer dan rationeel denkvermogen namelijk: emoties, ervaringen van vreugde en leed, besef van goed en kwaad, geweten, overlevingsdrang. Dat soort dingen zal de ai alleen hebben als wij die er expliciet instoppen.
Dat is heel waarschijnlijk waar.
Nadat wij dat er expliciet hebben ingestopt, kun je moeilijk beweren dat we hier met een bewust wezen hebben te maken, want zo'n AI reageert voor zijn doen onnatuurlijk en geprogrammeerd.
Wat heeft het met bewustzijn te maken of een AI onnatuurlijk en geprogrammeerd reageert? (Wat bedoel je ueberhaupt met "onnatuurlijk en geprogrammeerd"?)

Waarom zou het onmogelijk zijn een AI te bouwen die op dezelfde manier moreel redeneert en voelt als een mens? Als je een mens tot in alle detail simuleert, zal deze zich niet onnatuurlijk gedragen. Dat is natuurlijk een onrealistisch voorbeeld, maar het laat zien dat het feit dat een geest kunstmatig is niet per se impliceert dat het een bepaalde "natuur" heeft (hoekig, glimmend, met scherpe randjes, hyperrationeel, enzovoort). Die natuur programmeer je zelf, op een manier naar keuze, en als er iets uitkomt wat zich niet gedraagt alsof het coherente gedachten en motivaties heeft, heb je het verkeerd gedaan. :)

Je hebt denk ik wel gelijk als je het hebt over een AI met een heel stelsel van vreemde doelen en motivaties, waar je later nog als bijgedachte dingen als een geweten gaat opleggen. Dan krijg je denk ik een raar soort geest. Maar als je vanaf het begin met dit soort dingen rekening houdt, zie ik niet waarom het niet zou kunnen.
Mij lijkt dat zo'n inteligentie het meest zal lijken op een psychopaat, want zonder gevoel zal hij rucksichtlos zijn eigen rationele belang volgen. De stekker eruit trekken lijkt mij dan ook niet echt moreel onverantwoord, want zo'n wezen kan wel eens heel gevaarlijk worden als hij beseft dat wij de stekker er uit kunnen trekken.
Ik ben het natuurlijk met je eens dat het niet goed is om een gewetenloze geest te bouwen, in ieder geval niet als hij slim genoeg is om schade te veroorzaken, of om zichzelf nog slimmer te maken.

Volgens mij is het echter niet zo dat een intelligentie zonder gevoel zijn "eigen rationele belang" zal volgen. Er is bij mijn weten geen zuiver logische reden om je eigen belangen boven die van anderen te stellen---dat is juist een typisch menselijk trekje dat illustreert dat "menselijk" (zoals mensen zijn) niet hetzelfde is als "menselijk" of "humaan" (volgens menselijke idealen), en dat het dat tweede is wat we in een AI zouden willen zien.

Eerder zal een amorele AI vreemde doelen volgen als: de wereld ombouwen tot een zo groot mogelijke hoeveelheid auto's (als het een AI uit een autofabriek is :) ). Dat is natuurlijk net zo goed iets wat we willen vermijden.

Zo'n AI zou menselijke ideeën over geweten, moraal, goed en kwaad kunnen tegenkomen, en ze verwerpen als niet relevant, omdat ze hem niet helpen bij het maken van auto's. Als je hem als uiteindelijk doel iets anders meegeeft dan het bouwen van auto's, zal hij weer heel andere dingen belangrijk vinden. Volgens mij moet dit ook kunnen met een geweten, het verlangen om een moreel beter persoon te zijn, enzovoorts, zonder dat hij daarbij op de een of andere manier logisch inconsistent hoeft te zijn. Je kunt je dan afvragen of dat niet minstens even rationeel is; ik heb sowieso het idee dat jij met het woord rationeel alleen verbale logica bedoelt zoals mensen die gebruiken, dwz onvoorzichtig en met allerlei rationalisaties achteraf. Als je het begrip rationaliteit iets breder opvat hoeft het niet irrationeel te zijn om een moraal op gevoelens te baseren, als je niets anders hebt om een moraal op te baseren---maar ook daarbij is veel voorzichtigheid geboden.

Is het moreel om de stekker uit een psychopathische AI te trekken? Misschien wel, als dit voldoende gevaar tegengaat---maar menselijke psychopaten schieten we ook niet zomaar dood, zeker niet voor ze enige misdaad begaan hebben, dus het lijkt me een hoogst niet-triviaal vraagstuk. In ieder geval is het zaak om niet te discrimineren op of iemand van vlees is gemaakt of van staal, silicium, enzovoorts. Het is maar al te makkelijk om terug te vallen in een "us-versus-them", wij-tegen-de-gevoelloze-blikken-monsters manier van denken. Als je vindt dat een AI een lagere morele status heeft dan een mens zul je dit moeten baseren op belangrijke inhoudelijke verschillen en niet op principes die je speciaal hebt bedacht om te rationaliseren dat alleen personen uit jouw groep (in dit geval mensen) rechten hebben. ("Ja, je mag de stekker eruittrekken, want, uhm, uhm, uhm, computers hebben geen sex, dus hun leven is zinloos!")
Wat wij ook creeeren , het zal zonder menselijk lichaam nooit op een mens lijken en aangezien onze ethiek zich beperkt tot de mens, zal dit wezen er niet onder vallen.
Wil je zeggen dat iets zonder menselijk lichaam ook geestelijk nooit op een mens kan lijken? Daar ben ik het niet mee eens.

Waarom beperkt onze ethiek zich tot de mens? Je kunt ook zeggen dat onze ethiek zich beperkt tot intelligente wezens, en dat de mens daar tot nu toe het enige voorbeeld van is.
Ik zou wel tien maal uitkijken voor we een ai scheppen die velen malen intelligenter is dan de mens en ook nog macht heeft.
Dit is misschien het belangrijkste punt, en ik ben het deels met je eens: het is extreem onverantwoordelijk om iets intelligenter te maken dan een mens zonder er heel goed over na te denken.

Jij zegt, "Een amorele AI maken is gevaarlijk, dus maak geen AI."

Ik zeg, "Een amorele AI maken is gevaarlijk, dus maak een morele AI."

Verwijderd

[quote]Vladimir G. schreef op 11 October 2003 @ 12:00:
[...]

En dan was er nu niemand die van die schoonheid kon genieten... :/

Minder intelligente wezens kunnen wel degelijk van alle schoonheid genieten, observeer maar eens koeien die uit de winterstalling komen en weer van een mooie zomerweide kunnen genieten. De aarde zou er veel beter aan toe zijn als wij niet zo intelligent waren geweest, maar dat is een andere discussie.

mijn link wijst trouwens naar een 2Meg pdf document dus dat duurd wat langer.

  • Rey Nemaattori
  • Registratie: November 2001
  • Laatst online: 04-11-2025
Vladimir G. schreef op 11 October 2003 @ 12:00:
(Data heeft natuurlijk oorspronkelijk geen emoties omwille van de show, maar ik heb het nu over zijn lichaam dat we moeten hebben, niet over de geest.)
Ik weet zeker dat Data zegt in First Contact:"I'm afraid."
waarom het antwoord is "Deactivate you emotion chip."(oid)

Hij heeft wel emotionele ervaringen, alleen hij kan ze naar believe aan of uit zetten...

Speks:The Hexagon Iks Twee Servertje

"When everything is allright,there is nothing left."Rey_Nemaattori


  • Eelke Spaak
  • Registratie: Juni 2001
  • Laatst online: 27-12-2025
Rey Nemaattori schreef op 13 oktober 2003 @ 19:01:
[...]


Ik weet zeker dat Data zegt in First Contact:"I'm afraid."
waarom het antwoord is "Deactivate you emotion chip."(oid)

Hij heeft wel emotionele ervaringen, alleen hij kan ze naar believe aan of uit zetten...
Ja, je hebt gelijk, maar First Contact speelt een redelijk tijdje ná de gewone Next Generation series (of een heel groot stuk ervoor natuurlijk, maar je begrijpt wat ik bedoel ;) ). In de serie wordt Data vrij duidelijk neergezet als een emotieloze robot, die wel kan denken en ook een bewustzijn heeft. Deze chip is er dus later in gezet.

TheStreme - Share anything with anyone


Verwijderd

De meest effectieve manier om een agens te bouwen die zich precies zo gedraagt als een mens en niet te onderscheiden is van een mens lijkt me om gewoon een mens cel voor cel op te bouwen. Een beetje het Frankenstein idee op een hoger niveau.

Het monster van Frankenstein is misschien wel een goed voorbeeld ook. Hoe menselijk was die? Hij was gebouwd door een mens uit dode materie.

Klonen komt hier op een bepaalde manier ook bij in de buurt, maar als je dit dus zo ver door kan voeren dat je een mens helemaal zelf opbouwt en wel zo goed dat het verschil met een natuurlijk geboren mens niet meer te onderscheiden is, dan lijkt het me waarschijnlijk dat je deze 'persoon' niet uitzet (rare term trouwens, ik zie geen power-knop voor me op ver ontwikkelde kunstmatige intelligentie)

En over de tweede post nog ff:
Lasker schreef: "Waarschijnlijk zal hij ook geen overlevingsdrang hebben, waarom zou die. We programmeren die er natuurlijk expres niet in." (...) "want zo'n wezen kan wel eens heel gevaarlijk worden als hij beseft dat wij de stekker er uit kunnen trekken."

Dit is nogal tegenstrijdig, die laatste uitspraak getuigt toch wel van overlevingsdrang. Waarmee weer bewezen wordt dat het heel lastig is om iets te maken dat zich gedraagt als een mens, maar geen mens is (hoe die 'mens' dan ook ontstaan is).

  • Eelke Spaak
  • Registratie: Juni 2001
  • Laatst online: 27-12-2025
Verwijderd schreef op 11 oktober 2003 @ 21:48:
[...]

Minder intelligente wezens kunnen wel degelijk van alle schoonheid genieten, observeer maar eens koeien die uit de winterstalling komen en weer van een mooie zomerweide kunnen genieten. De aarde zou er veel beter aan toe zijn als wij niet zo intelligent waren geweest, maar dat is een andere discussie.
Volgens mij kunnen alleen wezens die minstens (misschien wel precies) zo intelligent zijn als wij genieten van de schoonheid van de wereld. Ik denk dat een koe net zoveel lol zal hebben van een compleet geïndustrialiseerd weideveld als van een toevallige vlakte in een natuurlijk bos. Een koe realiseert zich namelijk niet dat de wereld ook anders kan zijn dan dat 'ie is. De wereld is zoals 'ie is en daarmee uit. Een mens daarentegen zal een natuurlijk landschap waarschijnlijk meer schoonheid toedichten dan een geïndustrialiseerde wei.

TheStreme - Share anything with anyone


Verwijderd

Vladimir G. schreef op 13 oktober 2003 @ 23:20:
[...]

Volgens mij kunnen alleen wezens die minstens (misschien wel precies) zo intelligent zijn als wij genieten van de schoonheid van de wereld. Ik denk dat een koe net zoveel lol zal hebben van een compleet geïndustrialiseerd weideveld als van een toevallige vlakte in een natuurlijk bos. Een koe realiseert zich namelijk niet dat de wereld ook anders kan zijn dan dat 'ie is. De wereld is zoals 'ie is en daarmee uit. Een mens daarentegen zal een natuurlijk landschap waarschijnlijk meer schoonheid toedichten dan een geïndustrialiseerde wei.
Compleet geindustrialiseerd landschap?? Wat is dat nou weer? Koeien zijn blij als ze uit een stal komen, niet omdat ze het landschap mooi vinden maar vanwege frisse lucht, licht, vers voedsel, bewegingsruimte etc. , ze kunnen weer door een wei springen waar in de stal geen ruimte voor is. Daarnaast realiseert een koe zich niet dat de wereld anders kan zijn dan dat ze is. Een koe accepteert simpelweg de omgeving waar ze in kan overleven. Meer voer, meer sex betekent dus een nieuwe omgeving voor een koe. Dat is geen intelligent gedrag maar lui gedrag. Ik sluit hiermee niet uit dat dieren een gevoelsleven hebben maar wel dat ze geen estetisch inzicht hebben.

Robots kunnen mijns inziens nooit dezelfde intelligentie bezitten als wij mensen vanwege het simpele feit dat onze motivaties subjectief zijn. Elke handeling heeft een emotionele basis met daarnaast een vrijheid van keuzes en denken. Omdat robots altijd zullen bestaan bij gratie van hun software, zullen zij ook altijd daaraan gebonden zijn, altijd gevangen in hun eigen programmatuur.

Verwijderd

Verwijderd schreef op 13 October 2003 @ 22:03:
Lasker schreef: "Waarschijnlijk zal hij ook geen overlevingsdrang hebben, waarom zou die. We programmeren die er natuurlijk expres niet in." (...) "want zo'n wezen kan wel eens heel gevaarlijk worden als hij beseft dat wij de stekker er uit kunnen trekken."

Dit is nogal tegenstrijdig, die laatste uitspraak getuigt toch wel van overlevingsdrang. Waarmee weer bewezen wordt dat het heel lastig is om iets te maken dat zich gedraagt als een mens, maar geen mens is (hoe die 'mens' dan ook ontstaan is).
dan moet je lezen wat er tussen staat:
Zou het apparaat toch spontaan levensdrang ontwikkelen dan roept dat zeker vragen op.
Volgens mij is namelijk de enige manier om te ontdekken of een AI bewustzijn heeft, door te kijken of hij spontaan levensdrang gaat ontwikkelen. Wil hij niet dood dan duidt dit op bewustzijn.

Verwijderd

Sorry, je hebt gelijk.

Wat jij nu zegt ben ik het alleen ook niet helemaal mee eens. Ik zie namelijk niet in wat er zo essentieel is aan overlevingsdrang voor bewustzijn. Er zullen genoeg mensen zijn op dit moment die wel een bewustzijn hebben maar absoluut geen drang meer om te overleven.

Je noemt wel het woord ontwikkelen, en dat lijkt me nu weer wel essentieel voor goede AI. Hij moet niet alleen doen wat het vantevoren ingefluisterd is, maar zelf ook nieuwe eigenschappen bijleren en zich zodoende 'ontwikkelen'.

Dit houdt de AI echter ook niet tegen om slimmer te worden dan en mens en uiteindelijk bij ons de stekker eruit te trekken. Een bekend thema natuurlijk tegenwoordig.

Verwijderd

Verwijderd schreef op 14 oktober 2003 @ 22:26:
Wat jij nu zegt ben ik het alleen ook niet helemaal mee eens. Ik zie namelijk niet in wat er zo essentieel is aan overlevingsdrang voor bewustzijn. Er zullen genoeg mensen zijn op dit moment die wel een bewustzijn hebben maar absoluut geen drang meer om te overleven.
Dat wil toch niet zeggen dat het omgekeerde niet geldt. Als een AI spontaan overlevingsdrang gaat ontwikkelen moet dat wel duiden op bewustzijn. Er is namelijk geen evolutionair proces dat selecteert op overleving en als wij het er niet ingestopt hebben, dan is de AI kennelijk bewust van het feit dat hij leeft en wil dit handhaven. Ik zou geen andere verklaring weten.

  • wacco
  • Registratie: Augustus 2002
  • Laatst online: 21-03-2023

wacco

cli, hlt.

Er al aan gedacht dat overlevingsdrang een uitvloeisel is van angst? En angst weer van een slechte situatie? En dat een extreem slechte situatie ervoor zorgt dat je er een betere situatie van wilt maken, wat je op zou kunnen vatten onder de term 'overlevingsdrang'? Dan is een AI maken die overlevingsdrang moet hebben erg makkelijk te constructueren.

Dan wil ik deze discussie aangrijpen om over iets semi-anders te discusseren, er viel namelijk nogal wat keren de vraag in hoeverre de buitenwereld kan zien of het een AI is of een menselijk wezen (de eerste keer al in de laatste alinea van de TS).
Er is namelijk iemand geweest die zei (help ik weet niet meer wie! bron?!) dat je een machine in een doos kan stoppen met een boek met woorden en regels, en dat deze machine door middel van deze regels antwoorden geeft op woorden die naar binnen gestuurd worden. Als deze regels goed genoeg zijn (en het boek dik genoegf), kan de buitenwereld dan nog doorhebben of het een machine of een mens is? Daarnaast werd geredeneerd; de machine mag dan nog wel zo menselijk overkomen, hij kan niets nieuws leren en zal dus nooit een mens evenaren.
Maar wat als je een machine maakt die ingegeven nieuwe woorden kan vastleggen in nieuwe regels? In hoeverre is het dan nog te onderscheiden? Dit moet toch niet zo moeilijk zijn? En als het niet zo moeilijk is, waarom is er dan nog steeds niet een werkende AI in deze wereld?

Spolap: Interactive webcomic


  • Rey Nemaattori
  • Registratie: November 2001
  • Laatst online: 04-11-2025
Verwijderd schreef op 14 October 2003 @ 22:26:
Sorry, je hebt gelijk.

Wat jij nu zegt ben ik het alleen ook niet helemaal mee eens. Ik zie namelijk niet in wat er zo essentieel is aan overlevingsdrang voor bewustzijn. Er zullen genoeg mensen zijn op dit moment die wel een bewustzijn hebben maar absoluut geen drang meer om te overleven.

Je noemt wel het woord ontwikkelen, en dat lijkt me nu weer wel essentieel voor goede AI. Hij moet niet alleen doen wat het vantevoren ingefluisterd is, maar zelf ook nieuwe eigenschappen bijleren en zich zodoende 'ontwikkelen'.

Dit houdt de AI echter ook niet tegen om slimmer te worden dan en mens en uiteindelijk bij ons de stekker eruit te trekken. Een bekend thema natuurlijk tegenwoordig.
Dat mensen geen zin hebben om te leven komt door externe factoren, zoals stress, verlies en/of stoornissen.

Over het algemeen zulen de meeste mensen hun portomonee afstaan aan een overvallen die een pistool op hun hoofdgericht houd....

Speks:The Hexagon Iks Twee Servertje

"When everything is allright,there is nothing left."Rey_Nemaattori


  • Eelke Spaak
  • Registratie: Juni 2001
  • Laatst online: 27-12-2025
wacco schreef op 15 October 2003 @ 01:37:
Er al aan gedacht dat overlevingsdrang een uitvloeisel is van angst? En angst weer van een slechte situatie? En dat een extreem slechte situatie ervoor zorgt dat je er een betere situatie van wilt maken, wat je op zou kunnen vatten onder de term 'overlevingsdrang'? Dan is een AI maken die overlevingsdrang moet hebben erg makkelijk te constructueren.

Dan wil ik deze discussie aangrijpen om over iets semi-anders te discusseren, er viel namelijk nogal wat keren de vraag in hoeverre de buitenwereld kan zien of het een AI is of een menselijk wezen (de eerste keer al in de laatste alinea van de TS).
Er is namelijk iemand geweest die zei (help ik weet niet meer wie! bron?!) dat je een machine in een doos kan stoppen met een boek met woorden en regels, en dat deze machine door middel van deze regels antwoorden geeft op woorden die naar binnen gestuurd worden. Als deze regels goed genoeg zijn (en het boek dik genoegf), kan de buitenwereld dan nog doorhebben of het een machine of een mens is? Daarnaast werd geredeneerd; de machine mag dan nog wel zo menselijk overkomen, hij kan niets nieuws leren en zal dus nooit een mens evenaren.
Dit is volgens mij een variant op de beroemde Chinese Room, bedacht door John Searle (ik geloof ergens rond 1980, maar dat weet ik niet zeker). In de originele Chinese Room zat een mens die tekens onder de deur door geschoven kreeg. Als antwoord op deze tekens ging hij volgens een groot boek met regels typografische bewerking uitvoeren op de tekens en schreef zijn 'antwoord' op een nieuw stuk papier. Dit stuk papier werd dan weer onder de deur door geschoven. Wat de man binnenin niet wist, is dat de tekens die hij kreeg en die hij verstuurde, Chinese tekens waren. De grote vraag hierbij is natuurlijk: kunnen we nu zeggen dat de man Chinees kent?

Mijn antwoord is nee, maar we kunnen wel zeggen dat de kamer in zijn geheel Chinees kent.
Maar wat als je een machine maakt die ingegeven nieuwe woorden kan vastleggen in nieuwe regels? In hoeverre is het dan nog te onderscheiden? Dit moet toch niet zo moeilijk zijn? En als het niet zo moeilijk is, waarom is er dan nog steeds niet een werkende AI in deze wereld?
Dit snap ik niet helemaal. In hoeverre is wat dan nog te onderscheiden van wat? En waarom zou dat niet moeilijk zijn?

TheStreme - Share anything with anyone


  • Eelke Spaak
  • Registratie: Juni 2001
  • Laatst online: 27-12-2025
Verwijderd schreef op 14 October 2003 @ 23:47:
[...]

Dat wil toch niet zeggen dat het omgekeerde niet geldt. Als een AI spontaan overlevingsdrang gaat ontwikkelen moet dat wel duiden op bewustzijn. Er is namelijk geen evolutionair proces dat selecteert op overleving en als wij het er niet ingestopt hebben, dan is de AI kennelijk bewust van het feit dat hij leeft en wil dit handhaven. Ik zou geen andere verklaring weten.
Integendeel, alle evolutionaire processen selecteren op overleving. Dat is min of meer het essentiële kenmerk van evolutie: als jij beter kan overleven dan de rest, zullen jouw eigenschappen voortbestaan. Dat is zelfs het enige dat een evolutionair proces kan doen; het is onmogelijk voor de evolutie (voor zover wij nu weten) om ergens 'naar toe' te werken, zoals intelligentie o.i.d.

TheStreme - Share anything with anyone


  • Eelke Spaak
  • Registratie: Juni 2001
  • Laatst online: 27-12-2025
Verwijderd schreef op 14 October 2003 @ 22:11:
[...]

Compleet geindustrialiseerd landschap?? Wat is dat nou weer? Koeien zijn blij als ze uit een stal komen, niet omdat ze het landschap mooi vinden maar vanwege frisse lucht, licht, vers voedsel, bewegingsruimte etc. , ze kunnen weer door een wei springen waar in de stal geen ruimte voor is. Daarnaast realiseert een koe zich niet dat de wereld anders kan zijn dan dat ze is. Een koe accepteert simpelweg de omgeving waar ze in kan overleven. Meer voer, meer sex betekent dus een nieuwe omgeving voor een koe. Dat is geen intelligent gedrag maar lui gedrag. Ik sluit hiermee niet uit dat dieren een gevoelsleven hebben maar wel dat ze geen estetisch inzicht hebben.
Ik weet niet goed of je het nu wel of niet met me eens bent. Volgens mij kunnen koeien geen esthetisch inzicht hebben, want ze zijn net zo blij in oneindig uitgestrekte velden weiland met hier en daar structureel geplaatste drinkbakken en stallen (volgens onze inzichten niet mooi) als in een natuurlijk vlakland met glooiing, beekjes en bomen (volgens onze inzichten wel mooi).

Maar dit is natuurlijk eigenlijk flink off-topic.
Robots kunnen mijns inziens nooit dezelfde intelligentie bezitten als wij mensen vanwege het simpele feit dat onze motivaties subjectief zijn. Elke handeling heeft een emotionele basis met daarnaast een vrijheid van keuzes en denken. Omdat robots altijd zullen bestaan bij gratie van hun software, zullen zij ook altijd daaraan gebonden zijn, altijd gevangen in hun eigen programmatuur.
Ja, maar die software hoeft niet per se compleet voorgeprogrammeerd zijn. Ik beweer dat mensen ook niets anders zijn dan biologische computers met bepaalde 'software' (zoals eerder gezegd de enig mogelijke manier om tegen mensen aan te kijken als je niet gelooft in een hogere macht). Ik kan daarentegen niet ontkennen dat mensen zoiets ervaren als emoties, 'vrije wil' en andere subjectieve ervaringen als kleur. Daarom vraag ik me af hoe je wil beweren dat robots, met exact dezelfde 'programmatuur' als mensen, deze emoties en ervaringen niet kunnen hebben?

TheStreme - Share anything with anyone


  • wacco
  • Registratie: Augustus 2002
  • Laatst online: 21-03-2023

wacco

cli, hlt.

Vladimir G. schreef op 15 October 2003 @ 13:14:
[...]

Dit snap ik niet helemaal. In hoeverre is wat dan nog te onderscheiden van wat? En waarom zou dat niet moeilijk zijn?
Stel dat het persoon in de kamer een reeks tekens krijgt en dat één teken onbekend is in z'n boek. Door middel van de tekens eromheen kan hij dan nog wél een vraag formuleren (ook al weet hij niet eens dat het een vraag is) als in het boek een hoofdstukje staat 'wat te doen bij onbekende tekens'. Als uit het antwoord daarop weer een aantal tekens terug geschoven worden kan het persoon deze nieuwe associatie in z'n boek erbij schrijven. Hij 'leert'.
Als het persoon nou niet een persoon is, maar een machine, wie zal dat dan doorhebben? In de regels, je reacties met de buitenwereld, ligt immers vastgelegd hóe je zal reageren, wat je persoonlijkheid is.

Spolap: Interactive webcomic


Verwijderd

Vladimir G. schreef op 13 oktober 2003 @ 23:20:
[...]

Volgens mij kunnen alleen wezens die minstens (misschien wel precies) zo intelligent zijn als wij genieten van de schoonheid van de wereld. Ik denk dat een koe net zoveel lol zal hebben van een compleet geïndustrialiseerd weideveld als van een toevallige vlakte in een natuurlijk bos. Een koe realiseert zich namelijk niet dat de wereld ook anders kan zijn dan dat 'ie is. De wereld is zoals 'ie is en daarmee uit. Een mens daarentegen zal een natuurlijk landschap waarschijnlijk meer schoonheid toedichten dan een geïndustrialiseerde wei.
Sorry maar hier ben ik het totaal mee oneens, in jouw reactie beschrijf je precies de enorme arrogantie van de mens die altijd denkt uniek te zijn m.b.t emoties pijn/angst/blijdschap/etc vanwege zijn intelligentie. Een eenvoudig voorbeeld heb je welleens een hond geobserveerd ik ben ervan overtuigd dat bijna alle voorgenoemde emoties bij dit beest voorkomen ondanks zijn gebrek aan intelligentie. Onlangs is aangetoond dat een goudvis een behoorlijk geheugen heeft en dat hij aan de hand van een beloningsysteem (experiment) een gevoel voor tijd heeft, ik verbaas me altijd over het feit hoe simpel mensen oordelen over "lagere" wezens b.v. vissen voelen geen pijn etc etc, waarop baseerd men dit soort onzin? Ik kan alleen maar concluderen dat dit wordt veroorzaakt door een gebrek aan intelligentie van de zijde van de mens. Dat wij niet de belevingswereld van "lagere" soorten voor 99,99999999% nog niet begrijpen en nog niet in kaart hebben gebracht wil nog niet zeggen dat dieren niet kunnen genieten, omdat wij zogenaamd zo "intelligent" zijn. Het genieten wat jij beschrijft, gaat vooral gepaard met vernieling, overal waar de mens geniet heeft de mens wat verziekt of gaat er wat verziekt worden, die mooie wei waar jij het over had is waarschijnlijk ontstaan na het platbranden van een veel mooier natuurlijk ontstaan bos.

Verwijderd

Vladimir G. schreef op 15 October 2003 @ 13:17:
Integendeel, alle evolutionaire processen selecteren op overleving. Dat is min of meer het essentiële kenmerk van evolutie: als jij beter kan overleven dan de rest, zullen jouw eigenschappen voortbestaan. Dat is zelfs het enige dat een evolutionair proces kan doen; het is onmogelijk voor de evolutie (voor zover wij nu weten) om ergens 'naar toe' te werken, zoals intelligentie o.i.d.
Je leest helemaal niet wat ik schrijf.

Een AI die gemaakt wordt door mensen is géén produkt van evolutie en daarom is overlevingsdrang bij hem geen produkt van selectie maar van bewustzijn. Dat is wat ik beweer.

Ons brein is geevolueerd, het brein van een AI is geconstrueerd. We stoppen het vol met asociatieve verbindingen, leren het basisvaardigheden en begrippen en gaan vervolgens kijken hoe hij zich ontwikkeld. Gaat het aktief denken of reageert het alleen maar en hoe reageert het. Gaat het zich verzetten tegen bepaalde input, of laat het hem koud. Gaat het zijn eigen gedachten sturen en zo een eigen motivatie ontwikkelen en doelen vormen dan komen we bij bewustzijn.

Overigens heb ik grote vraagtekens bij de ethiek van het geheel. Zowel bekeken vanuit de mens als het kunstmatig intelligente wezen. De enige rechtvaardiging is de nieuwsgierigheid van de mens. Net als kinderen die dieren pootjes uittrekken om te kijken of ze dan nog kunnen lopen.

[ Voor 40% gewijzigd door Verwijderd op 15-10-2003 15:53 ]


  • wacco
  • Registratie: Augustus 2002
  • Laatst online: 21-03-2023

wacco

cli, hlt.

Ik heb de neiging om enorm offtopic te gaan over goudvisjes, want ze (schijnen) een geheugen te hebben van dertig seconden. Maar goed, voor dat verhaal moeten jullie maar Oz kijken :P

Maar als er een kunstmatige intelligentie ontstaat, moeten we hem dan wel in een hokje stoppen? Waarom niet als een gelijkwaardig persoon behandelen? Het mag dan wel een machine zijn, maar dachten we een paar honderd jaar gelden niet hetzelfde over donkere mensen? Dat eindigde ook in verscheidene bloedbaden...
Het is ook het concept van alle Ai films, de computer wordt 'bewust' van z'n leven, men schiet in paniek en wil de stekker eruit rukken. Pjuter wil niet dood en zorgt voor een pittig stukje concurrentie, en dit hele gedoe escaleert. :/

Ik vind dat als een computer inderdaad bewust word van z'n bestaan hem gewoon uitgelegd moet worden dat er ook onderzoek loopt in de robotica, en dat hij nog maar even geduld moet hebben voor hij ook aan de wandel kan. Leg hem zelf de ethische aspecten voor, zullen we nog meer van jou 'soort' maken of zullen we lichtere varianten ontwikkelen? (pratende liften enzow) Ik denk dat we makkelijk met verscheidene Ai's in deze wereld kunnen samenleven, en er niet zo snel aan een doemsenario gedacht moet worden door velen.

En jongens en meisjes, hou het gezellig

Spolap: Interactive webcomic


  • Eelke Spaak
  • Registratie: Juni 2001
  • Laatst online: 27-12-2025
Verwijderd schreef op 15 October 2003 @ 15:10:
[...]

Je leest helemaal niet wat ik schrijf.

Een AI die gemaakt wordt door mensen is géén produkt van evolutie en daarom is overlevingsdrang bij hem geen produkt van selectie maar van bewustzijn. Dat is wat ik beweer.

Ons brein is geevolueerd, het brein van een AI is geconstrueerd. We stoppen het vol met asociatieve verbindingen, leren het basisvaardigheden en begrippen en gaan vervolgens kijken hoe hij zich ontwikkeld. Gaat het aktief denken of reageert het alleen maar en hoe reageert het. Gaat het zich verzetten tegen bepaalde input, of laat het hem koud. Gaat het zijn eigen gedachten sturen en zo een eigen motivatie ontwikkelen en doelen vormen dan komen we bij bewustzijn.
Er zijn twee manieren om een Kunstmatige Intelligentie te bereiken die ik in gedachten heb. De eerste is om een menselijk brein exact, tot op het moleculaire niveau, na te maken in silicium of andere kunstmatige techniek. Dit zal een exacte kopie opleveren van de menselijke geest, en zal dus precies hetzelfde denken en voelen. De tweede manier is om een aantal simpele basis bestanddelen te maken en die los te laten in een kunstmatige of natuurlijke omgeving. Deze bestanddelen zijn vergelijkbaar met de eencelligen die aan het begin van de natuurlijke evolutie stonden. Deze bestanddelen zullen dan ook evolueren op een manier die analoog is aan natuurlijke evolutie. Daarom zal er een vorm van overlevingsdrang ontstaan, en ook een bewustzijn. Dit zien we namelijk ook bij het produkt van evolutie dat de mens heet.
Overigens heb ik grote vraagtekens bij de ethiek van het geheel. Zowel bekeken vanuit de mens als het kunstmatig intelligente wezen. De enige rechtvaardiging is de nieuwsgierigheid van de mens. Net als kinderen die dieren pootjes uittrekken om te kijken of ze dan nog kunnen lopen.
Dat was ook min of meer het oorspronkelijke uitgangspunt van deze discussie. Ik denk dat, zolang geen intelligent wezen ergens onder hoeft te lijden, er geen sprake kan zijn van ethische onverantwoordelijkheid.
Verwijderd schreef op 15 oktober 2003 @ 13:44:
[...]

Sorry maar hier ben ik het totaal mee oneens, in jouw reactie beschrijf je precies de enorme arrogantie van de mens die altijd denkt uniek te zijn m.b.t emoties pijn/angst/blijdschap/etc vanwege zijn intelligentie. Een eenvoudig voorbeeld heb je welleens een hond geobserveerd ik ben ervan overtuigd dat bijna alle voorgenoemde emoties bij dit beest voorkomen ondanks zijn gebrek aan intelligentie. (...)
Ik wil niet beweren dat dieren geen basale emoties hebben. Ik beweer alleen dat waardering van esthetiek geen basale emotie is, en die dus voorbehouden is aan intelligente wezens zoals wijzelf of Kunstmatige Intelligenties (die nog niet bestaan).

TheStreme - Share anything with anyone


  • Eelke Spaak
  • Registratie: Juni 2001
  • Laatst online: 27-12-2025
wacco schreef op 15 October 2003 @ 13:31:
[...]

Stel dat het persoon in de kamer een reeks tekens krijgt en dat één teken onbekend is in z'n boek. Door middel van de tekens eromheen kan hij dan nog wél een vraag formuleren (ook al weet hij niet eens dat het een vraag is) als in het boek een hoofdstukje staat 'wat te doen bij onbekende tekens'. Als uit het antwoord daarop weer een aantal tekens terug geschoven worden kan het persoon deze nieuwe associatie in z'n boek erbij schrijven. Hij 'leert'.
Als het persoon nou niet een persoon is, maar een machine, wie zal dat dan doorhebben? In de regels, je reacties met de buitenwereld, ligt immers vastgelegd hóe je zal reageren, wat je persoonlijkheid is.
OK, nu snap ik wat je bedoelt, en ik ben het met je eens ;) .

TheStreme - Share anything with anyone


  • wacco
  • Registratie: Augustus 2002
  • Laatst online: 21-03-2023

wacco

cli, hlt.

Nu nog een stapje verder; stel dat z'n boek leeg is. De eerste paar reacties zullen dus onzin zijn, of hij geeft de input maar blind terug. Op een gegeven moment gebeurt er alleen iets...
...hij ziet een verband in die tekentjes! Een bepaald tekentje staat telkens weer in het midden van de reeks tekentjes. Hij schrijft het op, en probeert tekentjes te combineren, met dat ene tekentje in het midden. Er komt weer meer feedback, begint meer tekens te herkennen en op te schrijven, er komen meer verbanden boven tafel, z'n boek raakt voller... in plaats van een paar regeltjes, leert hij een hele taal in het boek!
Een mens zou dat boek natuurlijk in z'n hoofd hebben, een kunstmatige intelligentie zou het op moeten schrijven. Maar buiten de kamer zie je er (tadaa!) niets van.

Vladimir G: kom ook naar de w&l meeting! Met een beetje mazzel kan je deze theorie werkend zien dan, want ik zit een AI te coden die hopelijk werkend is voor 8 november (zodat ik em ook al wat kan aanleren enzow) (jawel mensjes, sneak preview van de w&l meeting hier! kom ook! :) )

Spolap: Interactive webcomic


Verwijderd

Vladimir G. schreef op 15 October 2003 @ 16:20:
Deze bestanddelen zullen dan ook evolueren op een manier die analoog is aan natuurlijke evolutie. Daarom zal er een vorm van overlevingsdrang ontstaan, en ook een bewustzijn. Dit zien we namelijk ook bij het produkt van evolutie dat de mens heet.
Dat is dan maar de vraag. Als je gaat selecteren op overleving krijg je inderdaad dingen die proberen te overleven. Maar over het bewustzijn zegt dat dan juist niets. Bijna elk solitair opererend dier probeert te overleven, maar heeft bijv. een sprinkhaan bewustzijn? Ik betwijfel het.

Ik zou zeggen: op deze manier kom je er juist nooit achter of je maken hebt met echte overlevingsdrang uit bewustzijn of slechts een door evolutie opgebouwde reflex.

Ik vind de Turingtest dan ook nietszeggend. Een emulatie kan zo'n test doorstaan, maar het blijft een emulatie. Het zegt niets over werkelijk bewustzijn zoals wij mensen dat ervaren.

  • Eelke Spaak
  • Registratie: Juni 2001
  • Laatst online: 27-12-2025
Verwijderd schreef op 15 October 2003 @ 17:02:
[...]

Dat is dan maar de vraag. Als je gaat selecteren op overleving krijg je inderdaad dingen die proberen te overleven. Maar over het bewustzijn zegt dat dan juist niets. Bijna elk solitair opererend dier probeert te overleven, maar heeft bijv. een sprinkhaan bewustzijn? Ik betwijfel het.

Ik zou zeggen: op deze manier kom je er juist nooit achter of je maken hebt met echte overlevingsdrang uit bewustzijn of slechts een door evolutie opgebouwde reflex.

Ik vind de Turingtest dan ook nietszeggend. Een emulatie kan zo'n test doorstaan, maar het blijft een emulatie. Het zegt niets over werkelijk bewustzijn zoals wij mensen dat ervaren.
Natuurlijk wel! Hoe wil jij concluderen dat jouw medemensen bewustzijn hebben? Dat kan alleen als je accepteert dat hun interactie met de wereld een bepaalde maat voor hun bewustzijn is. Je kan alleen zeggen dat een Turingtest niets over bewustzijn zegt als je wil ontkennen dat andere mensen bewustzijn hebben.

Denk jij dat bewustzijn los is ontstaan van de evolutie? Dat lijkt me niet aannemelijk te maken. Ooit in de evolutie is het voor bepaalde wezens van voordeel geweest interne representaties van de werkelijkheid te ontwikkelen, en deze representaties vervolgens uit te breiden zodat ze ook representaties van het wezen zelf omvatten (over een tijdsspanne van enige miljoenen jaren natuurlijk). Dan nog is er natuurlijk wel een duidelijk verschil te trekken tussen 'evolutionair automatische' overlevingsdrang en bewuste overlevingsdrang, dat moet ik toegeven. Daarom is het ook zinvol om bewustzijn en overlevingsdrang los te zien.

Wat ik bedoelde in mijn stukje dat er ook bewustzijn zou ontstaan op een bepaalde termijn, is dat we kunnen zien dat het in de natuurlijke evolutie is gebeurd. Daarom is het redelijk deze observatie door te trekken naar een kunstmatige evolutie, waar dan waarschijnlijk ook een vorm van bewustzijn zal evolueren.

TheStreme - Share anything with anyone


Verwijderd

Vladimir G. schreef op 15 oktober 2003 @ 17:12:
Natuurlijk wel! Hoe wil jij concluderen dat jouw medemensen bewustzijn hebben? Dat kan alleen als je accepteert dat hun interactie met de wereld een bepaalde maat voor hun bewustzijn is. Je kan alleen zeggen dat een Turingtest niets over bewustzijn zegt als je wil ontkennen dat andere mensen bewustzijn hebben.
De enige reden dat ik wil aannemen dat mijn medemens bewustzijn heeft, is omdat ik het zelf heb.

  • Eelke Spaak
  • Registratie: Juni 2001
  • Laatst online: 27-12-2025
wacco schreef op 15 October 2003 @ 16:52:
Nu nog een stapje verder; stel dat z'n boek leeg is. De eerste paar reacties zullen dus onzin zijn, of hij geeft de input maar blind terug. Op een gegeven moment gebeurt er alleen iets...
...hij ziet een verband in die tekentjes! Een bepaald tekentje staat telkens weer in het midden van de reeks tekentjes. Hij schrijft het op, en probeert tekentjes te combineren, met dat ene tekentje in het midden. Er komt weer meer feedback, begint meer tekens te herkennen en op te schrijven, er komen meer verbanden boven tafel, z'n boek raakt voller... in plaats van een paar regeltjes, leert hij een hele taal in het boek!
Een mens zou dat boek natuurlijk in z'n hoofd hebben, een kunstmatige intelligentie zou het op moeten schrijven. Maar buiten de kamer zie je er (tadaa!) niets van.
Zo gauw de meneer in de kamer betekenisvolle structuur ontdekt in de tekentjes zal hij betekenis aan de tekentjes als zodanig gaan toekennen. Dan heb je eigenlijk niets anders gedaan dan de meneer in de kamer Chinees te leren. Het hele idee van "de kamer als zodanig kent Chinees" is dan loos geworden, want het mannetje binnenin kent al Chinees. En ja, een kunstmatige intelligentie zal dat ook kunnen op den duur.

Volgens mij haal jij een beetje de Turingtest en de Chinese Room door elkaar. De Turingtest gaat als volgt:

Kamer A zit een mens.
Kamer B zit een computer.
Kamer C zit het publiek.

Het publiek mag nu vragen stellen aan de beide kamers, zonder dat ze weten in elke kamer de computer zit. Als het publiek aan het einde van de sessie nu niet meer significant goed kan raden in welke kamer het mens zat, heeft de kunstmatige intelligentie van de computer de Turingtest 'doorstaan'. Volgens Turing zelf mogen we dan ook niet meer zomaar concluderen dat deze KI geen bewustzijn heeft.

De Chinese Room probeert te demonstreren dat het begrip van een bepaalde taal (of andere interactie met de wereld) te vatten is in pure elementaire regels, en dat uiteindelijk bewustzijn ook in deze regels te vatten is.
Vladimir G: kom ook naar de w&l meeting! Met een beetje mazzel kan je deze theorie werkend zien dan, want ik zit een AI te coden die hopelijk werkend is voor 8 november (zodat ik em ook al wat kan aanleren enzow) (jawel mensjes, sneak preview van de w&l meeting hier! kom ook! :) )
Hmm ja ik zou op zich wel willen, maar ik moet dan wel even vrij krijgen bij de Appie Heijn die zaterdag. Als dat lukt kom ik denk ik wel.
offtopic:
Ik zie dat je e-technology studeert aan een HBO, is dat vergelijkbaar met kunstmatige intelligentie op een uni? Dat laatste studeer ik namelijk :) .

TheStreme - Share anything with anyone


  • Eelke Spaak
  • Registratie: Juni 2001
  • Laatst online: 27-12-2025
Verwijderd schreef op 15 October 2003 @ 17:15:
[...]

De enige reden dat ik wil aannemen dat mijn medemens bewustzijn heeft, is omdat ik het zelf heb.
Stel je praat met een wezen dat eruit ziet en doet (precies) als een mens. Je weet echter niet of het een kunstmatige intelligentie is of een biologisch mens. Op welke gronden kan jij dan zeggen "er is een 50% kans dat dit wezen een bewustzijn heeft"? Intuïtief gezien zou je dat misschien zeggen, maar er is geen enkele rationele rechtvaardiging voor te vinden.

Niemand kan met zekerheid concluderen dat andere mensen bewustzijn hebben, maar zo gauw je concludeert dat ze dat wel hebben (een redelijke conclusie), moet je ook concluderen dat alles dat "walks, talks and acts" als een mens een bewustzijn heeft.

TheStreme - Share anything with anyone


  • Q
  • Registratie: November 1999
  • Laatst online: 00:46

Q

Au Contraire Mon Capitan!

De Chinese Room probeert te demonstreren dat het begrip van een bepaalde taal (of andere interactie met de wereld) te vatten is in pure elementaire regels, en dat uiteindelijk bewustzijn ook in deze regels te vatten is.
Ik meende dat het 'chinese room' argument van Chalmers? altijd werd aangedragen om te bewijzen dat een computer wel taal kan hanteren maar nogsteeds niet begrijpt en dus nogsteeds niet bewust is. Ik vind je uitleg erg aanspreken en lijkt me correct maar hoe zit dat, ben ik in de war met iets anders?

  • wacco
  • Registratie: Augustus 2002
  • Laatst online: 21-03-2023

wacco

cli, hlt.

Vladimir G. schreef op 15 October 2003 @ 17:20:
[...]

Zo gauw de meneer in de kamer betekenisvolle structuur ontdekt in de tekentjes zal hij betekenis aan de tekentjes als zodanig gaan toekennen. Dan heb je eigenlijk niets anders gedaan dan de meneer in de kamer Chinees te leren. Het hele idee van "de kamer als zodanig kent Chinees" is dan loos geworden, want het mannetje binnenin kent al Chinees. En ja, een kunstmatige intelligentie zal dat ook kunnen op den duur.
JUISTEM, en waarom zou een machine dit niet kunnen? En let wel, emoties, persoonlijkheid, bewustzijn, het ligt allemaal in de regels, niet in de machine/persoon.
Volgens mij haal jij een beetje de Turingtest en de Chinese Room door elkaar. De Turingtest gaat als volgt:

Kamer A zit een mens.
Kamer B zit een computer.
Kamer C zit het publiek.

Het publiek mag nu vragen stellen aan de beide kamers, zonder dat ze weten in elke kamer de computer zit. Als het publiek aan het einde van de sessie nu niet meer significant goed kan raden in welke kamer het mens zat, heeft de kunstmatige intelligentie van de computer de Turingtest 'doorstaan'. Volgens Turing zelf mogen we dan ook niet meer zomaar concluderen dat deze KI geen bewustzijn heeft.

De Chinese Room probeert te demonstreren dat het begrip van een bepaalde taal (of andere interactie met de wereld) te vatten is in pure elementaire regels, en dat uiteindelijk bewustzijn ook in deze regels te vatten is.
Ik haal ze niet door elkaar, maar ben wel blij met de laatste alinea :) Bewustzijn ligt in de regels. punt. zijn we het daar tenminste over eens :)
De praktijkuitvoering van de Turingtest op het moment slaat trouwens ook als een tang op een varken. Ze worden in synchrone communicatie getest 8)7 Elke gladiool heeft dan in een no-time in de gaten of het een computer is of niet, alleen al aan de reactie snelheid te zien. En stel dat je er een timer op zet, dan krijg je nog een prut communicatie. Je moet juist a-synchrone gesprekken kunnen simuleren! Ik ben dan ook een voorstander van een variant op de jaarlijkse Turing test, waarin de jury met een Ai moet kletsen in een IRC omgeving. Of zelfs dat Ai's op een irc server kunnen connecten en gewoon kunnen meedraaien in een kanaal.
[bron]Loebner prize contest (Loebner == zelfde straatje)

Waarom deze contest een final fantasy beurt-om-beurt methode gebruikt is trouwens omdat de meeste kandidaten vroeger uit een dos tijdperk kwamen, waar multithreading nou niet echt tot de mogelijkheden behoorde, en de nieuwere Ai's via websites werken met dan al niet javascript, waar multithreading ook weer een tandje lastiger is.
offtopic:
Ik zie dat je e-technology studeert aan een HBO, is dat vergelijkbaar met kunstmatige intelligentie op een uni? Dat laatste studeer ik namelijk :) .
offtopic:
Niet eens in de buurt, maar als je Ai's al een paar jaar aan het programmeren bent als hobby, valt de studie als Kunstmatige intelligentie en Informatica af omdat ze te 'saai' lijken, je kent immers al hele bergen van de stof. Vandaar dat ik electro doe :P En ik had al gezien dat je Ai deed, vandaar dat ik het er nog maar ff bij meldde dat je gewoon moet komen ;)

[ Voor 4% gewijzigd door wacco op 15-10-2003 19:44 . Reden: rrraaarrr lopende zin ]

Spolap: Interactive webcomic


Verwijderd

Verwijderd schreef op 15 October 2003 @ 15:10:
Overigens heb ik grote vraagtekens bij de ethiek van het geheel. Zowel bekeken vanuit de mens als het kunstmatig intelligente wezen. De enige rechtvaardiging is de nieuwsgierigheid van de mens.
Ik zie naast zuivere nieuwsgierigheid nog belangrijke andere redenen.

Het proberen te maken van een kunstmatig intelligent wezen zal ons dwingen op ongebruikelijke manieren naar mensen te kijken. Hierdoor doen we misschien belangrijke psychologische of filosofische inzichten op. Het bouwen van een kunstmatig brein hangt samen met het leren hoe het menselijk brein werkt. Hoe meer we weten hoe het menselijk brein werkt, hoe meer zelfkennis we zullen krijgen.

Iemand die voorbij de grenzen gaat die voor de menselijke intelligentie gelden, zal problemen kunnen oplossen die voor ons onoplosbaar zijn, en belangrijke waarheden inzien voor zover wij dat nog niet doen. De wereld wordt tegenwoordig steeds ingewikkelder, en er wordt steeds meer mogelijk---misschien op den duur zo veel dat de mens het zonder hulp niet veilig meer aankan. (In zekere zin is dat al zo. Mensen zijn als het ware ontworpen om met stenen te gooien en in kleine stammen te leven, niet om met massavernietigingswapens om te gaan.)

Een kunstmatige intelligentie kan het eerste wezen worden met een menselijke moraal maar zonder alle nare menselijke trekjes als haat, groepsdenken, irrationaliteit, egoïsme en zelfoverschatting.

Lijken deze voordelen jou onbelangrijk, of onmogelijk te behalen, of ongunstig?

Zo ja, welk soort beleid lijkt jou beter dan te proberen de eerste AI moreel te maken en ons te laten helpen om te gaan met nieuwe technologieën? Is er een manier om de "geboorte" van de eerste kunstmatige intelligentie oneindig lang, of voor mijn part honderd jaar, uit te stellen zonder dat dit neerkomt op het instellen van een totalitaire wereldregering of het wachten tot de mens zichzelf vernietigt?
Net als kinderen die dieren pootjes uittrekken om te kijken of ze dan nog kunnen lopen.
Daar gaat het om mensen die een levend wezen uit elkaar trekken; hier gaat het om mensen die een levend wezen in elkaar zetten. Nogal een verschil.


Over koeien en esthetica:

De vraag of koeien van een landschap genieten zoals mensen dat doen lijkt me te onderzoeken, bijvoorbeeld door koeien neer te zetten tussen een saai, vlak grasveld (een voetbalstadion? :) ) en een mooi landschap, en te kijken waar ze heenlopen. Ik denk dat niet zal blijken dat koeien dezelfde ideeën hebben over wat voor landschappen mooi zijn als mensen, dus dat Vlad G. hier gelijk heeft, alhoewel ik het niet zeker weet. Wat mensen mooi vinden zal denk ik naast allerlei culturele invloeden bepaald worden door evolutionaire ontwikkelingen die plaatsgevonden hebben nadat de mens zich van de koe afsplitste ( :) ). Zo zeggen sommige evolutionair psychologen bijvoorbeeld dat mensen geëvolueerd zijn om savanne-achtige landschappen mooi te vinden doordat dat een ideale omgeving was voor onze voorouders. Andere mensen vinden dat dan weer onzin. Ik zou het niet weten.


Over overlevingsdrang:

Als een AI overleven als doel ontwikkelt, hoeft dat volgens mij niet te betekenen dat hij bewustzijn heeft (dat is sowieso een beladen woord). Hij hoeft alleen heel basaal over doelen te kunnen redeneren.

Dit hoeft trouwens niet te betekenen dat zo'n AI "gevaarlijk" is; het zou best kunnen dat hij alleen probeert te overleven om mensen te kunnen blijven helpen of iets dergelijks, en dat hij zich realiseert dat het dom zou zijn om te overleven ten koste van de mensen die hij juist probeert te helpen. Een echte "drang" is zoiets niet---meer het bewuste idee dat het wel eens nuttig zou kunnen zijn om niet dood te gaan.


Q,

Het Chinese Room-argument is inderdaad bedoeld (door Searle, niet Chalmers) om te laten zien dat echte kunstmatige intelligentie niet mogelijk is. Ik ben het ermee eens dat het daar niet in slaagt, min of meer om de redenen die al genoemd zijn.

[ Voor 5% gewijzigd door Verwijderd op 15-10-2003 20:27 ]


  • Eelke Spaak
  • Registratie: Juni 2001
  • Laatst online: 27-12-2025
wacco schreef op 15 oktober 2003 @ 19:42:
[...]

JUISTEM, en waarom zou een machine dit niet kunnen? En let wel, emoties, persoonlijkheid, bewustzijn, het ligt allemaal in de regels, niet in de machine/persoon.
Mee eens, maar dit heb ik toch ook niet ontkend?
offtopic:
Niet eens in de buurt, maar als je Ai's al een paar jaar aan het programmeren bent als hobby, valt de studie als Kunstmatige intelligentie en Informatica af omdat ze te 'saai' lijken, je kent immers al hele bergen van de stof. Vandaar dat ik electro doe :P En ik had al gezien dat je Ai deed, vandaar dat ik het er nog maar ff bij meldde dat je gewoon moet komen ;)
offtopic:
Een studie AI, zeker in Nijmegen, is veel cognitieve psychologie en ook redelijk wat filosofie, dus als je al kan programmeren (ik ook namelijk) leer je echt nog wel wat hoor ;) .
Staphylococcus_Rex
Het Chinese Room-argument is inderdaad bedoeld (door Searle, niet Chalmers) om te laten zien dat echte kunstmatige intelligentie niet mogelijk is. Ik ben het ermee eens dat het daar niet in slaagt, min of meer om de redenen die al genoemd zijn.
Inderdaad, nu ik het even teruglees is het argument inderdaad bedoeld tégen KI, en niet vóór. Nou ja, ik geloof dat ik het argument in ieder geval dan flink onderuit heb gehaald inmiddels :D .

[ Voor 22% gewijzigd door Eelke Spaak op 15-10-2003 21:03 ]

TheStreme - Share anything with anyone


Verwijderd

Vladimir G. schreef op 15 oktober 2003 @ 17:24:
Stel je praat met een wezen dat eruit ziet en doet (precies) als een mens. Je weet echter niet of het een kunstmatige intelligentie is of een biologisch mens. Op welke gronden kan jij dan zeggen "er is een 50% kans dat dit wezen een bewustzijn heeft"? Intuïtief gezien zou je dat misschien zeggen, maar er is geen enkele rationele rechtvaardiging voor te vinden.
Wanneer een kunstmatig wezen exact zo gaat reageren als een mens, dan kan dat alleen maar de ontkenning van een bewustzijn zijn, omdat zo'n wezen voor zijn doen heel onnatuurlijk en dus kunstmatig reageert.

Het criterium is niet of je een mens voor de gek kan houden. Dat is een heel verkeerd uitgangspunt. Een AI zonder menselijk lichaam en menselijke hersenstruktuur zal niet reageren als een mens, ook al heeft hij bewustzijn.

Verwijderd

Verwijderd schreef op 15 oktober 2003 @ 21:15:
Wanneer een kunstmatig wezen exact zo gaat reageren als een mens, dan kan dat alleen maar de ontkenning van een bewustzijn zijn, omdat zo'n wezen voor zijn doen heel onnatuurlijk en dus kunstmatig reageert.
Dat is waar, tenzij je hem precies zo programmeert dat hij de structuur van menselijke hersenen heeft, bijvoorbeeld door atoom voor atoom te emuleren.

Natuurlijk zul je hem niet precies zo programmeren, maar in sommige opzichten zul je hem wel zo programmeren dat hij zoals een mens is, en in die opzichten hoeft hij zich niet onnatuurlijk te gedragen.

Wat belangrijker is: dit is de 150.000ste post in W&L.

[ Voor 6% gewijzigd door Verwijderd op 15-10-2003 21:21 ]


  • wacco
  • Registratie: Augustus 2002
  • Laatst online: 21-03-2023

wacco

cli, hlt.

Verwijderd schreef op 15 October 2003 @ 20:22:
Een kunstmatige intelligentie kan het eerste wezen worden met een menselijke moraal maar zonder alle nare menselijke trekjes als haat, groepsdenken, irrationaliteit, egoïsme en zelfoverschatting.
Als ze zo naar zijn, waarom zijn ze dan geschapen in de natuur?
Haat -> blijf weg van slechte dingen. Nou niet echt het slechtste levensregeltje.
Groepsdenken -> Vang jij als prehistorisch mens maar eens een flink beest in je eentje. Verder is voortplanting erg belangrijk geweest in de evolutie (duh) maar wie niet in een groep denkt en z'n familie (kids die niet voor zich zelf kunnen zorgen) laat barsten sterft uit. Nu denk je, dat hoef je niet in te bouwen in een Ai. Maar dat hoef je zowiezo al niet, want als deze argumenten gelden voor de overleving van een Ai dan zal hij er vanzelf rekening mee gaan houden. Overleven is immers beter dan sterven.
Irrationaliteit -> Das gewoon een ander woord voor iemand's gedachtengang niet begrijpen. Wat je niet snapt moet je met rust laten, tenzij je een psycholoog bent. Maar irrationaliteit is er altijd wel. Want waarom het morgen regent, weet ik veel!
egoïsme -> Hangt natuurlijk erg samen met groepsdenken. Maar als je in je eentje bent en je geeft je buurman ook een stuk van het vlees dat je met je leven hebt moeten bemachtigen, verklein je dan niet enorm je overlevingskansen? Ook egoïsme kan erg realistisch zijn in sommige situaties. Maar ook hier heeft een Ai hier geen groot voordeel mee, en zal het geen (of iig; weinig) egoïstische trekjes ontwikkelen.
Zelfoverschatting -> Dat gebeurt iedereen wel eens :P Je beoordeelt situaties op je ervaringen, en als een nieuwe situatie erg veel lijkt op een eerdere situatie maar stiekem compleet andere kwaliteiten van je vergt, overschat je jezelf. Het is een mooi duur woord, maar zonder verdere toelichting nou niet echt een probleem in de trand van Ai's.

Een heel ander instinct wat ik op het moment even niet kan verklaren is wraak. Waarom? Wel kan je meestal mensen die op het punt staan wraak te nemen eruit kletsen, maar waarom ze dan in de eerste instantie de ander om zeep wilde helpen... Ik kom niet verder dan; hij heeft m'n brood opgevreten, als ik hem nou pief paf poef omzeep help, kan ik hem weer opvreten. Soort van... misschien dat het idee niet 'van deze tijd' is dat het me niet aanstaat. Het klinkt logisch, maar iets frissers zou met toch blijer maken ;) Er is trouwens aangetoont dat de mens ooit kanibaal was, maar dat terzake -> EOS (scientific american) no 9 / 2003

offtopic:
Vlad, wel eens in een bieb gestaan en naar de Ai boeken gekeken? De een na de ander gaat over zoekalgoritmes, databases, en neural networks. Lekker boeiend, tell me someting I don't know! Maar je komt dus 8/11? :o

En wie heeft een laptop voor me die freeBSD draait? Die van mij wil maar niet :( Morgen maar es de 5.1 proberen (en hopen dat m'n code dan nog wil). Linux is ook goed maar dan weet ik niet of m'n progsels nog werken (prolly wel, maar heb niet heel erg op portabiliteit gelet so far :P (al is het niet *heel* erg veel, heeft linux curses lib? En misschien dat ik pthreads ga gebruiken, en doet malloc(pagesize) soort van uitlijning? Nuja, we zien wel :)))


En toen was m'n verhaaltje weer veels te lang, zal je zien dat er ondertussen vier reacties tussen staan over *exact* hetzelfde stukje :P -edit: nou twee dan ;) en gefeliciteerd met DE 150.000e! Gaat lekker hier :Y)

[ Voor 3% gewijzigd door wacco op 15-10-2003 21:31 ]

Spolap: Interactive webcomic


  • Q
  • Registratie: November 1999
  • Laatst online: 00:46

Q

Au Contraire Mon Capitan!

Vladimir G.
Inderdaad, nu ik het even teruglees is het argument inderdaad bedoeld tégen KI, en niet vóór. Nou ja, ik geloof dat ik het argument in ieder geval dan flink onderuit heb gehaald inmiddels .
Hehe, lol. Ik heb wel eens voor een heldere uitleg gekeken waarom de analogie niet klopte maar hier wordt hij duidelijk uitgelegd.

  • Eelke Spaak
  • Registratie: Juni 2001
  • Laatst online: 27-12-2025
Verwijderd schreef op 15 oktober 2003 @ 21:15:
[...]

Wanneer een kunstmatig wezen exact zo gaat reageren als een mens, dan kan dat alleen maar de ontkenning van een bewustzijn zijn, omdat zo'n wezen voor zijn doen heel onnatuurlijk en dus kunstmatig reageert.
Waarom is dat? Als iemand zo reageert als een mens, dan kan je toch logischerwijs concluderen dat 'ie ook denkt als een mens (zie elk willekeurig ander mens)?
Het criterium is niet of je een mens voor de gek kan houden. Dat is een heel verkeerd uitgangspunt. Een AI zonder menselijk lichaam en menselijke hersenstruktuur zal niet reageren als een mens, ook al heeft hij bewustzijn.
OK, maar als we ervoor zorgen dat een precies menselijke hersenstructuur wordt gesimuleerd, dan zal hij toch ook reageren als een mens? Dan hebben we mensen toch voor de gek gehouden?
wacco
Een heel ander instinct wat ik op het moment even niet kan verklaren is wraak. Waarom? Wel kan je meestal mensen die op het punt staan wraak te nemen eruit kletsen, maar waarom ze dan in de eerste instantie de ander om zeep wilde helpen... Ik kom niet verder dan; hij heeft m'n brood opgevreten, als ik hem nou pief paf poef omzeep help, kan ik hem weer opvreten. Soort van... misschien dat het idee niet 'van deze tijd' is dat het me niet aanstaat. Het klinkt logisch, maar iets frissers zou met toch blijer maken.
Mijn (intuïtieve, zojuist bedachte) verklaring voor wraak: als iemand je eten jat, dan wil je dat niet. Je neemt wraak (slaat hem de hersens in), zodat soortgenoten weten: "oei, van die kerel moet ik het eten niet jatten, want dan krijg ik slaag".
offtopic:
Vlad, wel eens in een bieb gestaan en naar de Ai boeken gekeken? De een na de ander gaat over zoekalgoritmes, databases, en neural networks. Lekker boeiend, tell me someting I don't know! Maar je komt dus 8/11?
offtopic:
Misschien zijn die boeken wel saai, maar de boeken die wij hebben (o.a. Payne & Wenger, Cognitive Psychology; Kalat, Biological Psychology) zijn wel interessant en hebben eigenlijk niets te maken met computers. Ik heb ook wel C++- en Neural Networks-boeken in de kast staan voor m'n studie, maar daar ligt niet de nadruk op bij de studie KI in Nijmegen. En oja, waarschijnlijk ken je hem al wel, maar Gödel, Escher, Bach (van Hofstadter) is een grappig introductiewerk (aanrader) tot de KI op voornamelijk quasi-filosofisch gebied.

TheStreme - Share anything with anyone


  • wacco
  • Registratie: Augustus 2002
  • Laatst online: 21-03-2023

wacco

cli, hlt.

offtopic:
Morgen dan maar ff de bieb plunderen dan :P
Moet toch nog een boek over VHDL terugbrengen... *gaap* sim-pel (maar je kan wel leuke Ai-dingesen-theorietjes in FPGA's bouwen)

Spolap: Interactive webcomic

Pagina: 1