Heren,
Laatst (donderdag 9 oktober) was ik op een symposium over Kunstmatige Intelligentie in Amsterdam (BNAIS 2003), en het laatste onderdeel was een paneldiscussie met als titel 'Ethische perspectieven in de kunstmatige intelligentie'. Pas tegen het einde van deze discussie begon het echt over ethiek te gaan, dus hadden we niet zo heel veel tijd meer om hierop in te gaan. Daarom lijkt het me interessant om hier op W&L die discussie (in een wat aangepaste vorm) voort te zetten.
Stel dat de mensheid op een gegeven moment 'echte' Kunstmatige Intelligentie heeft ontwikkeld. Hiermee bedoel ik dus niet een programma of robot dat sommetjes kan oplossen of misschien wel hele ingewikkelde afwegingen kan maken, maar een agens dat op dezelfde manier met de wereld interacteert als wij. Dit agens komt dus door een Turingtest heen.
De vraag is of het ethisch gezien acceptabel is om dit agens uit te zetten. Persoonlijk vind ik van niet, aangezien hij (of zij) volgens mij net zozeer leeft als wij.
Een belangrijk discussiepunt hierbij is of dit agens wel of niet een bewustzijn heeft, en of hij wel of niet heeft wat wij 'vrije wil' noemen (ik zeg expres niet 'of hij vrije wil heeft', want ik ben er nog niet helemaal uit of onze wil eigenlijk wel vrij is). Het lijkt mij dat wanneer een agens van buiten (dus op basis van zijn interactie met de wereld) niet te onderscheiden is van een mens, wij ook niet meer kunnen concluderen dat dit agens geen bewustzijn heeft. Immers, ik kan van andere mensen ook niet op andere gronden concluderen dat ze bewustzijn hebben; dit gebeurt op basis van hun interactie met de wereld.
Laatst (donderdag 9 oktober) was ik op een symposium over Kunstmatige Intelligentie in Amsterdam (BNAIS 2003), en het laatste onderdeel was een paneldiscussie met als titel 'Ethische perspectieven in de kunstmatige intelligentie'. Pas tegen het einde van deze discussie begon het echt over ethiek te gaan, dus hadden we niet zo heel veel tijd meer om hierop in te gaan. Daarom lijkt het me interessant om hier op W&L die discussie (in een wat aangepaste vorm) voort te zetten.
Stel dat de mensheid op een gegeven moment 'echte' Kunstmatige Intelligentie heeft ontwikkeld. Hiermee bedoel ik dus niet een programma of robot dat sommetjes kan oplossen of misschien wel hele ingewikkelde afwegingen kan maken, maar een agens dat op dezelfde manier met de wereld interacteert als wij. Dit agens komt dus door een Turingtest heen.
De vraag is of het ethisch gezien acceptabel is om dit agens uit te zetten. Persoonlijk vind ik van niet, aangezien hij (of zij) volgens mij net zozeer leeft als wij.
Een belangrijk discussiepunt hierbij is of dit agens wel of niet een bewustzijn heeft, en of hij wel of niet heeft wat wij 'vrije wil' noemen (ik zeg expres niet 'of hij vrije wil heeft', want ik ben er nog niet helemaal uit of onze wil eigenlijk wel vrij is). Het lijkt mij dat wanneer een agens van buiten (dus op basis van zijn interactie met de wereld) niet te onderscheiden is van een mens, wij ook niet meer kunnen concluderen dat dit agens geen bewustzijn heeft. Immers, ik kan van andere mensen ook niet op andere gronden concluderen dat ze bewustzijn hebben; dit gebeurt op basis van hun interactie met de wereld.