Voorwaarden voor ontstaan kunstmatige intelligentie?

Pagina: 1
Acties:
  • 206 views sinds 30-01-2008
  • Reageer

Verwijderd

Deze draad is afgesplitst van Bestaat God?, omdat het daar teveel offtopic ging. De aanleiding was, achtereenvolgens
Grijns in "Bestaat God?"
Christiaan in "Bestaat God?"
Confusion in "Bestaat God?"
Christiaan in "Bestaat God?"
Confusion schreef op 11 juni 2004 @ 16:27:
Je zal het programma in de praktijk alleen kunnen maken als het bewust is. Dat wil zeggen: het mag geen ontzettend complex apparaat zijn met enkel als doel je vragen te beantwoorden. Het moet een adaptief, zelf-ontwikkeld programma zijn, een neuraal netwerk. En zodra we er daar eentje van ontwikkelen die in staat blijkt de Turing test te overleven, dan is het ononderscheidbaar van bewustzijn en dus bewust.
De Turing-test is alleen significant voor menselijk bewustzijn en menselijke intelligentie: als we een hypothetisch super-intelligent buitenaards wezen vragen stellen als "Wie was Atilla de Hun?" dan overleeft het de Turing-test niet, terwijl dat wel geoorloofde vragen zijn in een test.

[ Voor 25% gewijzigd door Confusion op 12-06-2004 13:59 ]


  • Confusion
  • Registratie: April 2001
  • Laatst online: 01-03-2024

Confusion

Fallen from grace

Topicstarter
Verwijderd schreef op 11 juni 2004 @ 16:53:
De Turing-test is alleen significant voor menselijk bewustzijn en menselijke intelligentie: als we een hypothetisch super-intelligent buitenaards wezen vragen stellen als "Wie was Atilla de Hun?" dan overleeft het de Turing-test niet, terwijl dat wel geoorloofde vragen zijn in een test.
Er zijn voldoende mensen die niet weten wie Atilla de Hun was. Het lijkt me niet dat die de Turing test niet overleven. De vraag is of je de computer kan onderscheiden van een mens. Een vraag over Atilla de Hun kan daarvoor niet doorslaggevend zijn.

[ Voor 4% gewijzigd door Confusion op 11-06-2004 17:50 ]

Wie trösten wir uns, die Mörder aller Mörder?


Verwijderd

Christiaan
Computers zijn volgens mij niet in staat om te ervaren wat voor mensen zo heel elementair is; gevoelens, emoties, enzovoorts. Hoe, tenslotte, moeten emoties verwoord worden in 1-en en 0-en? Ik zeg niet dat het onmogelijk is, maar het lijkt me erg onwaarschijnlijk.
Bedoel je:

- dat het waarschijnlijk onmogelijk is een programma te schrijven met daarin iets wat precies dezelfde functionele eigenschappen heeft als emoties (dus met dezelfde uitwerkingen op zijn gedachten, dezelfde gedragingen die eruit volgen, enzovoorts)?

- dat het onwaarschijnlijk is dat een computerprogramma "echte" gevoelens kan hebben in de zin van onkenbare, onuitspreekbare, causaal inerte (enz.) "qualia"?

Als je dat eerste bedoelt: waarom in vredesnaam?

Als je dat tweede bedoelt: wat is het verschil met "hoe moeten emoties verwoord worden in atomen"? Waarom is het waarschijnlijker dat een bouwsel van hersencellen qualia kan voortbrengen dan dat een bouwsel van silicium e.d. dat kan? Als qualia niet vanzelf ontstaan maar er van buiten in gezet worden door God o.i.d., hoe weet je dan dat God dat bij mensen wel doet en bij AI's niet?
Confusion schreef op 11 juni 2004 @ 16:27:
Het moet een adaptief, zelf-ontwikkeld programma zijn, een neuraal netwerk.
Waarom een neuraal netwerk?
Ik denk dat een echte AI alleen tot stand kan komen door evolutie.
Waarom? Wat kan de evolutie dat wij (principieel) niet kunnen?
Tijdens dat evolutionaire proces zou de AI heel goed op emoties gelijkende eigenschappen kunnen ontwikkelen.
Dat zou kunnen; maar die emoties zouden misschien helemaal niet lijken op menselijke emoties. Bovendien lijkt deze aanpak me, als manier om een echt intelligente AI te ontwerpen, gevaarlijk, omdat je nauwelijks overzicht hebt over de doelen en motivaties van de AI die ontstaat.

[ Voor 24% gewijzigd door Confusion op 12-06-2004 13:59 ]


  • Confusion
  • Registratie: April 2001
  • Laatst online: 01-03-2024

Confusion

Fallen from grace

Topicstarter
Verwijderd schreef op 11 juni 2004 @ 22:57:
Waarom een neuraal netwerk?
Omdat bewustzijn zoveel input moet verwerken dat het dat nooit volledig kan: precies het probleem dat wij mensen hebben. De demon van Descartes zou zoveel processorkracht vereisen dat hij een eeuwige praktische onmogelijkheid is. Een AI zal fuzzy logic moeten gebruiken en zelf-adaptief moeten zijn, misschien ook op het fysieke niveau. Mensen zullen nooit de hersenen volledig in kaart kunnen brengen; we zullen nooit een hersennetwerk na kunnen bouwen: net als de demon van Descartes is dat een probleem dat teveel rekenkracht vereist. Waar we wel op kunnen hopen, is het bouwen van een systeem dat zichzelf kan ontwikkelen tot iets met de complexiteit van de menselijke hersenen. Er liggen waarschijnlijk slechts een beperkte set eenvoudige regels aan ten grondslag, zoals aan evolutie, zoals aan wiskunde, zoals aan het universum (voorzover wij kunnen zien, maar zeer nauwkeurige beschrijvingen oplevert; nauwkeurig genoeg om zoiets te reproduceren in ieder geval).
Waarom? Wat kan de evolutie dat wij (principieel) niet kunnen?
Parallel rekenen. Alle mogelijke mutaties tegelijk plaats laten vinden en bekijken welke overleeft. Evolutie kan best algoritmisch zijn; wij beschrijven evolutie momenteel in feite ook algoritmisch. Maar er moet wel een dergelijk algoritme door een programma op zichzelf worden losgelaten om een AI te kunnen vormen. Wij kunnend dat niet ontwerpen; dat kan alleen zichzelf ontwerpen. Alleen een computer kan een AI ontwerpen, omdat een computer kan herhalen wat de natuur de afgelopen paar miljard jaar met strengen organisch materiaal heeft uitgehaald. Wij kunnen dat zelf nooit doorrekenen en een computer kan de soms ook nooit in één keer doen: het moet een optimaliseringproces in stappen zijn. Op een gegeven moment kan alleen de AI zelf vooruitgang boeken, omdat die alleen zelf complex genoeg is om de mogelijkheden door te rekenen.
Dat zou kunnen; maar die emoties zouden misschien helemaal niet lijken op menselijke emoties.
Net als cijfers en natuurwetten is er veel inherent aan de structuur van het universum. Een intelligente levensvorm, zelfs als die slechts in computers bestaat, zal, wanneer het soortgenoten heeft, zich voortplant en zich in een sociale omgeving bevind, waarschijnlijk soortgelijke emoties hebben, simpelweg omdat deze aan situaties in een sociale omgeving koppelen, die in abstracto in elke omgeving waarin eenheden samenwerken bestaan.
Bovendien lijkt deze aanpak me, als manier om een echt intelligente AI te ontwerpen, gevaarlijk, omdat je nauwelijks overzicht hebt over de doelen en motivaties van de AI die ontstaat.
Dat ben ik zeker met je eens. De vraag is of dat uit moet maken.

[ Voor 4% gewijzigd door Confusion op 11-06-2004 23:25 ]

Wie trösten wir uns, die Mörder aller Mörder?


Verwijderd

Confusion schreef op 11 juni 2004 @ 23:23:
Omdat bewustzijn zoveel input moet verwerken dat het dat nooit volledig kan: precies het probleem dat wij mensen hebben. De demon van Descartes zou zoveel processorkracht vereisen dat hij een eeuwige praktische onmogelijkheid is.
Is iedere AI die niet volledig alle input verwerkt noodzakelijkerwijs een neuraal netwerk? Volgens mij niet. (Bedoel je eigenlijk de demon van Laplace ipv Descartes? Die van Laplace berekent de toekomstige toestand van het heelal uit de huidige toestand, die van Descartes spiegelt deze wereld als illusie voor aan Descartes.)
Een AI zal fuzzy logic moeten gebruiken
Waarom niet bijvoorbeeld (Bayesiaanse) waarschijnlijkheidstheorie?
Er liggen waarschijnlijk slechts een beperkte set eenvoudige regels aan ten grondslag, zoals aan evolutie, zoals aan wiskunde, zoals aan het universum
Sommige mensen noemen dit "physics envy": het idee dat intelligentie in een paar eenvoudige regels te vangen is, zoals ook succesvolle natuurkundige theorieën vele verschijnselen in een paar eenvoudige regels vangen. De menselijke hersenen hebben miljoenen jaren evolutionair ontwerp in zich zitten, en geen andere wezens dan mensen zijn "echt" intelligent; waarom zou zo'n beperkte set eenvoudige regels dus bestaan?
Alleen een computer kan een AI ontwerpen, omdat een computer kan herhalen wat de natuur de afgelopen paar miljard jaar met strengen organisch materiaal heeft uitgehaald.
Goed, de evolutie heeft één belangrijk voordeel op ons gehad, namelijk miljarden jaren aan tijd. Maar wij hebben een set andere belangrijke voordelen. De evolutie is een totaal blind proces, zonder enige intelligentie of mogelijkheid tot vooruitzien.

Je lijkt te stellen dat "probeer alles en gooi weg wat niet werkt" de enige methode is waarop we erachter kunnen komen hoe een AI te ontwerpen. Hoe onderbouw je dit? Waarom zou het onmogelijk zijn om op basis van een verzameling goede theorieën (en door de AI veel dingen te laten leren) een werkende intelligentie in elkaar te zetten? De evolutie heeft ook miljarden jaren erover gedaan om vogels te laten vliegen; wij kunnen vliegtuigen laten vliegen, niet doordat we alles parallel hebben uitgeprobeerd, maar gewoon omdat we slim genoeg zijn om te ontdekken hoe het kan werken en een verzameling onderdelen tot een systeem samen te voegen op een manier die werkt. Hersenen zijn natuurlijk veel ingewikkelder dan vleugels, maar het is me niet duidelijk dat ze zodanig veel ingewikkelder zijn dat het onmogelijk is om iets kunstmatigs te ontwerpen dat hetzelfde bereikt.
Een intelligente levensvorm, zelfs als die slechts in computers bestaat, zal, wanneer het soortgenoten heeft, zich voortplant en zich in een sociale omgeving bevind, waarschijnlijk soortgelijke emoties hebben, simpelweg omdat deze aan situaties in een sociale omgeving koppelen, die in abstracto in elke omgeving waarin eenheden samenwerken bestaan.
Goed, maar het zou best kunnen dat zo'n gesimuleerde intelligente levensvorm zich niet seksueel voortplant en/of zich in een sociale omgeving met soortgenoten bevindt. Wat me nog veel minder waarschijnlijk lijkt is dat de problemen die zo'n soort ondervindt bij het zich voortplanten en bij sociale interacties veel lijken op die problemen die de mens ondervond in de omgeving waar hij evolueerde. Daarnaast kan de vraag welke emoties handig zijn bij het voortplanten of overleven sterk afhangen van dingen als: zijn je hersenen "massively parallel", zoals bij mensen, of juist serieel heel snel, zoals computers? In dat tweede geval zou je misschien vaak bewust kunnen doorrekenen waar je anders op een instinct terug zou vallen.
Dat ben ik zeker met je eens. De vraag is of dat uit moet maken.
Als het inderdaad waar is dat een AI veel intelligenter dan mensen kan worden (door zichzelf steeds te verbeteren) -- en dat lijkt mij geen onredelijke aanname, gezien de intrinsieke voordelen die AI's ten opzichte van mensen hebben -- zal hij enorme macht kunnen verkrijgen; zijn doelen zullen bepalend zijn voor hoe de toekomst eruit zal zien. Wie een AI ontwerpt door de evolutie na te bootsen, heeft geen idee wat die doelen zullen zijn, behalve dat ze ontstaan zijn uit iets wat succesvol was in de omstandigheden die je simuleerde. Voor de meeste van zulke doelen zal de mens denk ik alleen een irrelevant obstakel zijn, met allerlei nare dingen als gevolg. Daarom lijkt het me op het eerste gezicht dat dit zeker uit moet maken; als mijn aannames hierboven waar zijn, is het ontwerpen van een "echte" algemeen intelligente AI via evolutie een soort russisch roulette met de wereld. Onze computers zijn nu niet snel genoeg, maar ze kunnen dat in de komende decennia worden, bijvoorbeeld door moleculaire nanotechnologie.

Vreemd genoeg zijn er maar heel weinig mensen die dit een interessant probleem vinden, of die lang hebben nagedacht over de mogelijke gevolgen en hoe ze te voorkomen (vandaar de link in mijn sig, maar zie ook hier). Meestal mompelt men in dit verband iets over Asimov's wetten van de robotica, en blijft het daarbij. Die werken niet, en het echte probleem is veel dieper.

  • Confusion
  • Registratie: April 2001
  • Laatst online: 01-03-2024

Confusion

Fallen from grace

Topicstarter
Verwijderd schreef op 12 juni 2004 @ 01:49:
(Bedoel je eigenlijk de demon van Laplace ipv Descartes? Die van Laplace berekent de toekomstige toestand van het heelal uit de huidige toestand, die van Descartes spiegelt deze wereld als illusie voor aan Descartes.)
Die van Descartes: alleen al het genereren van de data die iemand het gevoel moet geven dat hij zijn vinger door het zand beweegt is een onmogelijke opgave, omdat je alle mogelijke bewegingen moet berekenen en de goede op het juiste moment moet sturen. Er zijn teveel mogelijkheden.
Waarom niet bijvoorbeeld (Bayesiaanse) waarschijnlijkheidstheorie?
Daarover staan hier aardige dingen. Overigens is waarschijnlijkheidstheorie sowieso nuttig bij het 'leerproces' van een AI, maar hij moet bijvoorbeeld met inconsistenties om kunnen gaan, die je nooit kwijt kan in Bayesiaanse theorie.
Sommige mensen noemen dit "physics envy": het idee dat intelligentie in een paar eenvoudige regels te vangen is, zoals ook succesvolle natuurkundige theorieën vele verschijnselen in een paar eenvoudige regels vangen. De menselijke hersenen hebben miljoenen jaren evolutionair ontwerp in zich zitten, en geen andere wezens dan mensen zijn "echt" intelligent; waarom zou zo'n beperkte set eenvoudige regels dus bestaan?
Omdat evolutie ook op een kleine set eenvoudige regels gebaseerd is en het bouwproces van versmolten eicel naar mens ook op een beperkte set eenvoudige regels gebaseerd is. Maar je zal die weinige regels dus vele iteraties lang moeten laten draaien om tot een complexe AI te komen. Ik bedoel niet dat de intelligentie zelf op eenvoudige regels gebaseerd is: het bouwproces van een AI is erop gebaseerd. Of misschien terechter: kan erop gebaseerd worden en is de enige praktische mogelijkheid.
Je lijkt te stellen dat "probeer alles en gooi weg wat niet werkt" de enige methode is waarop we erachter kunnen komen hoe een AI te ontwerpen. Hoe onderbouw je dit?
Waarom zou het onmogelijk zijn om op basis van een verzameling goede theorieën (en door de AI veel dingen te laten leren) een werkende intelligentie in elkaar te zetten? De evolutie heeft ook miljarden jaren erover gedaan om vogels te laten vliegen; wij kunnen vliegtuigen laten vliegen, niet doordat we alles parallel hebben uitgeprobeerd,
Dat ben ik niet met je eens. Menselijke wetenschappers hebben wel degelijk een paar honderd jaar lang parallel allerlei dingen uitgeprobeerd, om 'het beste' te vinden. Ik ben het met je eens dat je niet alle mogelijkheden hoeft te proberen: je kan slim de mutaties kiezen en de evolutie verslaan qua efficientie (dat is al snel ;)). Maar heel veel menselijke vindingen blijven ook 'serendipity'. Ik bedoel ook niet dat een AI miljarden jaren nodig heeft: de generaties gaan veel sneller.
maar gewoon omdat we slim genoeg zijn om te ontdekken hoe het kan werken en een verzameling onderdelen tot een systeem samen te voegen op een manier die werkt. Hersenen zijn natuurlijk veel ingewikkelder dan vleugels, maar het is me niet duidelijk dat ze zodanig veel ingewikkelder zijn dat het onmogelijk is om iets kunstmatigs te ontwerpen dat hetzelfde bereikt.
Bij het vliegen van vogels was alleen het ontwerpproces parallel. Maar onze hersenen werken zelf ook parallel. Bovendien is zelf-adaptiviteit een essentieel deel van de werking van de hersenen. Daarmee krijg je een bootstrappingsprobleen, dat alleen met een iteratieve benadering, wat evolutie in feite is, op te lossen is.
Wat me nog veel minder waarschijnlijk lijkt is dat de problemen die zo'n soort ondervindt bij het zich voortplanten en bij sociale interacties veel lijken op die problemen die de mens ondervond in de omgeving waar hij evolueerde.
Natuurlijk zullen er verschillen zijn, maar ik denk dat iets dat lijkt op sexuele voortplanting zich ook onder programmas zou ontwikkelen. Immers, het uitwisselen van werkende brokken programmatuur is veel efficienter dan het random muteren van programmatuur. En ergens zullen ze een eigen dataopslag moeten hebben. Als ze die delen met hun kinderen, dan zijn kinderen direct volwassen. Maar als kinderen net iets anders zijn dan ouders, kunnen ze behoefte hebben aan een anders georganiseerde dataopslag en moeten ze wel zelf alle data vergaren alvorens die op te slaan en ondertussen te reorganiseren. Dan heb je dus ook kinderen. Generaties zullen ontzettend veel sneller gaan, maar als bijvoorbeeld sexuele voortplanting en kinderen denkbaar zijn, dan kunnen sociale interacties in abstracto hetzelfde zijn. Maar als ik hier zo even goed over na zit te denken, dan heb ik eigenlijk geen idee in hoeverre je van concurrentie en bijvoorbeeld ouderliefde kan spreken en of die zouden ontstaan. Laat ik het erop houden dat zaken als 'onrecht' en het daaruit voortkomende 'je recht willen halen' en het daaruit voortkomende 'conlict' als dat niet lukt, in feite heel abstract zijn en slechts interactie tussen twee entiteiten met een bepaald doel nodig heeft om te bestaan. Maar één en ander is sterk afhankelijk van omgevingsfactoren; als men slechts om geheugenruimte concurreert, dan is de omgeving ontzettend homogeen.
Wie een AI ontwerpt door de evolutie na te bootsen, heeft geen idee wat die doelen zullen zijn, behalve dat ze ontstaan zijn uit iets wat succesvol was in de omstandigheden die je simuleerde.
Ervanuitgaande dat onze hersenenen niet veel anders dan een massieve parallelle computer zijn, dan denk ik niet dat AI's tot andere conclusies zullen komen dan wij. Maar we zouden gemakkelijk het slachtoffer van een doctrine-oorlog tussen AI's kunnen worden.
Onze computers zijn nu niet snel genoeg,
Ik denk dat ze dat wel zijn, maar dat we de juiste omstandigheden nog niet gecreeerd hebben. Ik vraag me werkelijk af wat er gebeurt als je een goed veiligheidslek vind en een worm met state-of-the-art AI code erin loslaat op het internet, met als doel te muteren tot efficientere vormen. Zou het vormen vinden die weinig kwaad doen en moeilijk op te ruimen zijn, zodat we hun bestaan zouden tolereren?
Maar bijvoorbeeld Eric Drexler is net teruggekomen op zijn Grey Goo angst en dat ben ik met hem eens. Als programmas willen voortplanten, hebben ze niets aan nanomachines, die individueel te klein zijn om complexe programmatuur te dragen. Legers van die krengen aangestuurd middels signalen zijn denkbaar, maar als middel; nanobots zullen nooit een AI kunnen huisvesten. Hoewel ik me net bedenk dat ze misschien swarm intelligence zouden kunnen krijgen...
Meestal mompelt men in dit verband iets over Asimov's wetten van de robotica, en blijft het daarbij. Die werken niet, en het echte probleem is veel dieper.
In een /. draad zei laatst iemand: we zouden we gek zijn om die wetten daadwerkelijk in een robot te stoppen: Asimov heeft beschreven wat voor hopeloze problemen ze opleveren. Dat is misschien de reden dat hij ze gelanceerd heeft: om boeken te verkopen ;).

Wie trösten wir uns, die Mörder aller Mörder?


Verwijderd

Confusion schreef op 11 juni 2004 @ 17:50:
Er zijn voldoende mensen die niet weten wie Atilla de Hun was. Het lijkt me niet dat die de Turing test niet overleven. De vraag is of je de computer kan onderscheiden van een mens. Een vraag over Atilla de Hun kan daarvoor niet doorslaggevend zijn.
Als die mensen maar weinig genoeg algemene kennis in huis hebben falen ze voor de Turing test. Bij een normale Turing test worden vele algemene kennis vragen gesteld, niet om direct de kennis van de proef-intelligentie te testen maar om te zien of er niet "vals gespeeld" wordt; in de jaren 60 werden er verschillende programma's geschreven die zowat elke vraag beantwoordden met een wedervraag ("Wie was Adolf Hitler?" -> "Waarom wilt U weten wie Adolf Hitler was?") of door het destilleren van informatie uit de vraag ("Wie was Atilla de Hun?" -> "Atilla de Hun was een Hun.")

M.a.w. de Turing test is gebiast in die zin dat het vrijwel onmogelijk is om op bewustzijn te testen zonder dat de persoon die de vragen stelt en de proef-intelligentie een gemeenschappelijke (culturele) basis hebben; anders verwordt de test tot een IQ-test die alleen abstracte vermogens (b.v. wiskundig inzicht) onderzoekt.

[ Voor 13% gewijzigd door Verwijderd op 12-06-2004 14:35 ]


  • Opi
  • Registratie: Maart 2002
  • Niet online

Opi

Fuzzy logic en neurale netwerken!? Fuzzy logic is geen methode om te leren, maar om te redeneren. Neurale netwerken zijn niet meer dan gegeneraliseerde mappings van inputs naar outputs.

Zelf-adaptatie beschouw je als een mapping die aangepast kan worden op basis van een abstracter doel? Er zijn (mij) vooralsnog geen technieken bekend die zelf hun eigen doel kunnen stellen; zij dienen door een externe bron een doel voorgeschreven te krijgen. Hoe concreet dit doel is varieert van techniek tot techniek.

  • Sgrovert
  • Registratie: Mei 2004
  • Laatst online: 25-01 13:40
Verwijderd schreef op 12 juni 2004 @ 01:49:

Als het inderdaad waar is dat een AI veel intelligenter dan mensen kan worden (door zichzelf steeds te verbeteren) -- en dat lijkt mij geen onredelijke aanname, gezien de intrinsieke voordelen die AI's ten opzichte van mensen hebben -- zal hij enorme macht kunnen verkrijgen; zijn doelen zullen bepalend zijn voor hoe de toekomst eruit zal zien. Wie een AI ontwerpt door de evolutie na te bootsen, heeft geen idee wat die doelen zullen zijn, behalve dat ze ontstaan zijn uit iets wat succesvol was in de omstandigheden die je simuleerde. Voor de meeste van zulke doelen zal de mens denk ik alleen een irrelevant obstakel zijn, met allerlei nare dingen als gevolg.
De vraag is hoe onwenselijk het is om een AI te creëren die ooit zal gaan heersen. Als je het mij vraagt, heeft de mens zijn langste tijd gehad. We zijn nu zover gekomen dat we onze eigen evolutie beheersen en tot stilstand gebracht hebben.
Door ons sociale gedrag is ook de natuurlijke selectie gestopt, en kunnen ook de zwakke individuën zich lekker blijven voortplanten (devolutie).
De mens wordt als soort steeds zwakker (goede genen hebben geen voordelen meer), en er zullen steeds meer gevaarlijke en besmettelijke ziektes gaan voorkomen. (denk bv aan de pest, aids, sars).
Ooit zal hierdoor de mens gaan uitsterven. Als je op dat moment AI's hebt, zal er wel nog wat van je blijven voortbestaan, en voortleven als een soort kindje van je.
Tevens zullen de AI'niet alleen over de aarde heersen, maar ook over de rest van het helal. Ze hebben namelijk wel tijd genoeg om lekker naar andere sterrenstelsels te reizen, zonder zich onderweg druk te hoeven maken over eten en dat soort dingen.

Lost In Music


  • Confusion
  • Registratie: April 2001
  • Laatst online: 01-03-2024

Confusion

Fallen from grace

Topicstarter
OpifexMaximus schreef op 13 juni 2004 @ 00:36:
Fuzzy logic en neurale netwerken!? Fuzzy logic is geen methode om te leren, maar om te redeneren.
Als je wilt leren op basis van inconsistente data, en die zul je van mensen krijgen, dan heb je toch zoiets nodig.
Neurale netwerken zijn niet meer dan gegeneraliseerde mappings van inputs naar outputs.
Net als onze hersenen.
Zelf-adaptatie beschouw je als een mapping die aangepast kan worden op basis van een abstracter doel? Er zijn (mij) vooralsnog geen technieken bekend die zelf hun eigen doel kunnen stellen;
Eén van de belangrijkste doelen van een evoluerende AI moet zijn: voortplanten. Maar als je slechts die geeft; wie weet wat er dan van komt.

Wie trösten wir uns, die Mörder aller Mörder?


  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Uhm. Hoe weet jij zo goed hoe onze hersenen werken? Je vergelijkt het nu wel 1-op-1 met neurale netwerken, maar hoe weet jij dat die netwerken een goede weergave zijn van het functioneren van het brein als cognitief psychologen er zelf nog niet eens uit zijn hoe het brein (zeker niet op micro-niveau) functioneert. Pas, bijvoorbeeld, is ontdekt dat glia-cellen zeer waarschijnlijk een grote rol spelen in de informatieverwerking van het brein, en aangezien er daar veel meer van zijn dan neuronen, denk ik niet dat het zo makkelijk is om te zeggen dat enkel een neural netwerk genoeg is.

  • Opi
  • Registratie: Maart 2002
  • Niet online

Opi

Confusion schreef op 13 juni 2004 @ 10:42:
[...]

Als je wilt leren op basis van inconsistente data, en die zul je van mensen krijgen, dan heb je toch zoiets nodig.
Inconsistente data, oftewel noise aangezien imo een van de basisgedachten van de wetenschap is dat alle dingen op een bepaald niveau consistent met elkaar zijn. Er is genoeg technieken bekend om er mee om te gaan daar het voornamelijk gaat om de relevantie die je toekent aan de gebeurtenis.
Net als onze hersenen.
Christiaan schreef op 13 juni 2004 @ 10:53:
Uhm. Hoe weet jij zo goed hoe onze hersenen werken? Je vergelijkt het nu wel 1-op-1 met neurale netwerken, maar hoe weet jij dat die netwerken een goede weergave zijn van het functioneren van het brein als cognitief psychologen er zelf nog niet eens uit zijn hoe het brein (zeker niet op micro-niveau) functioneert. Pas, bijvoorbeeld, is ontdekt dat glia-cellen zeer waarschijnlijk een grote rol spelen in de informatieverwerking van het brein, en aangezien er daar veel meer van zijn dan neuronen, denk ik niet dat het zo makkelijk is om te zeggen dat enkel een neural netwerk genoeg is.
Strikt genomen vergelijkt hij neurale netwerken niet 1-op-1 met de hersenen, hij merkt alleen op dat zowel de hersenen als neurale netwerken een mapping vormen die de inputs (je perceptie en je gedachten) linkt aan outputs (je acties).
Eén van de belangrijkste doelen van een evoluerende AI moet zijn: voortplanten. Maar als je slechts die geeft; wie weet wat er dan van komt.
Wellicht ben ik het met je eens, maar dat volgt meer uit een erge hak-op-de-tak redenatie van mijn kant; de evolutie lijkt, uitgaande van de stukken die ik in 'The Naked Ape' van Desmond Morris gelezen heb, de wezens op een manier te sturen waardoor zij als individu er voordeel van lijken te ondervinden (ergens ga ik dus uit van de wil tot geluk). Op indivudueel niveau is de wil totvoortplanten imo veel minder sterk dan op evolutionair niveau (beetje vreemde woordkeus, maar ik hoop dat ongeveer begrepen wordt wat ik er mee bedoel.

Verwijderd

Confusion schreef op 13 juni 2004 @ 10:42:
Eén van de belangrijkste doelen van een evoluerende AI moet zijn: voortplanten. Maar als je slechts die geeft; wie weet wat er dan van komt.
Waarom zou voortplanting een voorwaarde zijn voor een evoluerende AI? Intelligentie vereist zeker geen voortplanting (er zijn genoeg intelligent mensen zonder kinderen) en voor evolutie is alleen verandering en aanpassing vereist, maar dat kan net zo goed binnen één individu dat zichzelf aanpast aan de omgeving en zodoende evolueert.

Verwijderd

maar dat kan net zo goed binnen één individu dat zichzelf aanpast aan de omgeving en zodoende evolueert.
De vraag is dan alleen, wat selecteer je dan? en is het dan nog evolutie te noemen?

  • Mulder_fox
  • Registratie: Mei 2004
  • Laatst online: 06-12-2025
Net zoals al eerder gezegt worden stukken code uitgewisseld. Dit is wat anders dan door gegeven zoals bij mensen.
Het evalueren van ai gaat dus niet perse in generaties. Maar ook de eerdere generaties evalueren mee daarom kan het ook zoveel sneller gaan.

Verwijderd

Interpretatie is momenteel het grootste en enige blok wat in de weg staat voor echte AI. Het analyseren van een gebeurtenis, vraag, kortom een event. Als de analyse hiervan klaar is kan er een selectie worden gemaakt op de daaropvolgende actie.

Echter is het ook lastig om de definitie van interpretatie vast te leggen. Interpretatie is voor ons afhankelijk van persoonlijke ontwikkeling, ervaringen in ons leven, maar om dit voor een AI systeem te krijgen betekend dit opvoeding, leerprocess, en dat kan je niet allemaal scripten. Je kunt alleen bepalen, op tijdstip A, gebeurde B, en hierop hebben we C uitgevoerd, met als resultaat D en als alternatieven E. :)

  • Opi
  • Registratie: Maart 2002
  • Niet online

Opi

Verwijderd schreef op 13 juni 2004 @ 16:58:
[...]

Waarom zou voortplanting een voorwaarde zijn voor een evoluerende AI? Intelligentie vereist zeker geen voortplanting (er zijn genoeg intelligent mensen zonder kinderen) en voor evolutie is alleen verandering en aanpassing vereist, maar dat kan net zo goed binnen één individu dat zichzelf aanpast aan de omgeving en zodoende evolueert.
Het ligt er aan hoe je A.I. beschouwt; evolutie zou selecteren tussen verschillende A.I.-technieken/structuren en ik vraag me af in hoeverre een object/individu van de ene A.I.-techniek naar de andere zou kunnen switchen. De structuur van de hersenen lijkt me tot op bepaalde hoogte vast te liggen en zeker niet te veranderen binnen een individu.

  • MSalters
  • Registratie: Juni 2001
  • Laatst online: 10-12-2025
Verwijderd schreef op 12 juni 2004 @ 14:27:
[...]


Als die mensen maar weinig genoeg algemene kennis in huis hebben falen ze voor de Turing test. Bij een normale Turing test worden vele algemene kennis vragen gesteld, niet om direct de kennis van de proef-intelligentie te testen maar om te zien of er niet "vals gespeeld" wordt; in de jaren 60 werden er verschillende programma's geschreven die zowat elke vraag beantwoordden met een wedervraag ("Wie was Adolf Hitler?" -> "Waarom wilt U weten wie Adolf Hitler was?") of door het destilleren van informatie uit de vraag ("Wie was Atilla de Hun?" -> "Atilla de Hun was een Hun.")

M.a.w. de Turing test is gebiast in die zin dat het vrijwel onmogelijk is om op bewustzijn te testen zonder dat de persoon die de vragen stelt en de proef-intelligentie een gemeenschappelijke (culturele) basis hebben; anders verwordt de test tot een IQ-test die alleen abstracte vermogens (b.v. wiskundig inzicht) onderzoekt.
Ik kan me vergissen, maar is het doel van een Turing test niet het uitvissen of de communicatie-partner een mens danwel een AI is? Dan maakt het exacte antwoord niet noodzakelijkerwijs iets uit. Een AI heeft in potentie veel meer feiten beschikbaar dan een mens, dus daarop kun je 'm niet pakken. Het is de meta-informatie, de methode waarop het weten respectievelijk niet-weten wordt gecommuniceerd.

Overigens:
Dit is geen vraag ondanks het vraagteken wat erachter staat?.
Succes.

Man hopes. Genius creates. Ralph Waldo Emerson
Never worry about theory as long as the machinery does what it's supposed to do. R. A. Heinlein


Verwijderd

offtopic: Weer eens tijd gevonden. Fantastisch forum is dit toch ook...
on:
Die selectie is imho het belangrijkste onderdeel van de evolutie. In de natuurlijke evolutie volgt de selectie uit afhankelijkheden van bronnen in de omgeving. Als de evoluerende AI niet hoeft te concurreren om te overleven is er logischerwijs geen evolutie. Als je dus die AI wil laten evolueren, bepaal je zelf welke richting deze op zal gaan, door de selectiefactoren te bepalen. Bij die selectiefactoren hoort ook het definieren van de mogelijkheid tot interactie. Als de AI-individuen in aparte wereldjes leven, is het logisch dat er geen sociale interactie zal evolueren. Op het moment dat er de mogelijkheid is om elkaars wereld te beinvloeden, zal interactie vrijwel zeker ontstaan (en sociale interactie is natuurlijk een geavanceerde vorm van interactie).
Ik denk dat de bepaling van de selectiefactoren ons de macht geeft om de AI te laten evolueren op een wijze die onschadelijk is voor de mens. Pas als de AI-entiteiten een fysieke vorm (in een of andere bot) krijgen valt een gedeelte van de selectiefactoren buiten ons bereik en kan er concurrentie tussen de AI en de mens optreden.
Weet niet waar het precies in de discussie valt, maar het is wel ontopic ;)

Verwijderd

MSalters schreef op 14 juni 2004 @ 22:40:
Ik kan me vergissen, maar is het doel van een Turing test niet het uitvissen of de communicatie-partner een mens danwel een AI is?
Nope, het doel van een Turing test is vast te stellen of de te testen entiteit (mensachtige) intelligentie bezit.
Dan maakt het exacte antwoord niet noodzakelijkerwijs iets uit. Een AI heeft in potentie veel meer feiten
beschikbaar dan een mens, dus daarop kun je 'm niet pakken. Het is de meta-informatie, de methode waarop het weten respectievelijk niet-weten wordt gecommuniceerd.
Exact, het gaat niet om het antwoord op zich maar de om manier waarop het gegeven wordt. De moeilijkheid is dat bij gebrek aan feitenkennis de antwoorden op de diverse vragen ook ontwijkend kunnen lijken.

Verwijderd

Verwijderd schreef op 14 juni 2004 @ 23:08:
offtopic: Weer eens tijd gevonden. Fantastisch forum is dit toch ook...
on:
Die selectie is imho het belangrijkste onderdeel van de evolutie. In de natuurlijke evolutie volgt de selectie uit afhankelijkheden van bronnen in de omgeving. Als de evoluerende AI niet hoeft te concurreren om te overleven is er logischerwijs geen evolutie. Als je dus die AI wil laten evolueren, bepaal je zelf welke richting deze op zal gaan, door de selectiefactoren te bepalen. Bij die selectiefactoren hoort ook het definieren van de mogelijkheid tot interactie. Als de AI-individuen in aparte wereldjes leven, is het logisch dat er geen sociale interactie zal evolueren. Op het moment dat er de mogelijkheid is om elkaars wereld te beinvloeden, zal interactie vrijwel zeker ontstaan (en sociale interactie is natuurlijk een geavanceerde vorm van interactie).
Ik denk dat de bepaling van de selectiefactoren ons de macht geeft om de AI te laten evolueren op een wijze die onschadelijk is voor de mens. Pas als de AI-entiteiten een fysieke vorm (in een of andere bot) krijgen valt een gedeelte van de selectiefactoren buiten ons bereik en kan er concurrentie tussen de AI en de mens optreden.
Weet niet waar het precies in de discussie valt, maar het is wel ontopic ;)
En dan de morele issues. Is het ethisch verantwoord om een bewustzijn (lijkt me essentieel voor echte AI) te creeeren? Als je het na een tijdje 'spelen' uitzet, is dat dan moord?

De holo-dokter uit ST Voyager vond het ook niet leuk om uitgezet te worden.

Zijn we dan niet voor god aan het spelen?

Verwijderd

Verwijderd schreef op 15 juni 2004 @ 12:38:
[...]

Zijn we dan niet voor god aan het spelen?
Het probleem is dan.. wat..? Als wij een "soort" ontwikkelen, kunstmatig of niet, dan zijn wij te vergelijken met een God. Is dat niet oke? No offense, maar in jouw woorden lijkt God wel een boeman met de intentie iedereen met 1 vingerknip te willen uitmoorden. Het feit dat God/wij dat kunnen wil niet zeggen dat we dat uberhaupt willen of moeten

[ Voor 3% gewijzigd door Verwijderd op 16-06-2004 16:48 ]


Verwijderd

Verwijderd schreef op 16 juni 2004 @ 16:48:
Het probleem is dan.. wat..? Als wij een "soort" ontwikkelen, kunstmatig of niet, dan zijn wij te vergelijken met een God. Is dat niet oke? No offense, maar in jouw woorden lijkt God wel een boeman met de intentie iedereen met 1 vingerknip te willen uitmoorden. Het feit dat God/wij dat kunnen wil niet zeggen dat we dat uberhaupt willen of moeten
Nee, het probleem is meer dat als je een kunstmatige intelligentie/bewustzijn schept je dan ook verantwoordelijk bent voor wat er mee gebeurt. Vergelijk het met een kind op de wereld zetten. Dat is misschien wel de grootste verantwoordelijkheid die je kunt nemen.

Verwijderd

Verwijderd schreef op 16 juni 2004 @ 17:12:
[...]

Nee, het probleem is meer dat als je een kunstmatige intelligentie/bewustzijn schept je dan ook verantwoordelijk bent voor wat er mee gebeurt. Vergelijk het met een kind op de wereld zetten. Dat is misschien wel de grootste verantwoordelijkheid die je kunt nemen.
Dus jij bent verantwoordelijk voor je kind? In de eerste jaren tuurlijk... Maar als je kind zich eenmaal zelfstandig noemt (volgens onze wet bij 21 jaar) ben je niet meer verantwoordelijk voor zijn/haar daden. Dan is hij/zij zelf verantwoordelijk, omdat hij dan "waarschijnlijk" zelf een verantwoordelijkheidsgevoel heeft ontwikkeld.

Als mijn zoon (ik heb geen zoon 8)7 )tegen een boom rijdt en verongelukt, dan ben ik daar niet verantwoordelijk voor. Mijn zoon is direct verantwoordelijk voor zijn daden. Als je een AI maakt met naar onze maatstaven een verantwoordelijkheids gevoel, dan is deze vorm ook verantwoordelijk voor zijn daden, in directe zin.

Tuurlijk, nu wordt er weer een argument naar m'n hoofd gegooid... jah maar jij hebt dat kind op de wereld gezet en als dat kind niet geboren was dan zou hij ook niet verongelukt zijn.

Nee natuurlijk niet... maar jah

  • PipoDeClown
  • Registratie: September 2000
  • Niet online

PipoDeClown

Izze Zimpell

Verwijderd schreef op 16 juni 2004 @ 17:35:
[...]
Tuurlijk, nu wordt er weer een argument naar m'n hoofd gegooid.
ja want je verward iet wat bij de wet als regel is vastgelegd met een gevoel

God weet alles, want hij is lid van de Mosad. To protect your freedom i will take that away from you. Mijn drankgebruik heeft ernstig te lijden onder mijn gezondheid.


Verwijderd

PipoDeClown schreef op 16 juni 2004 @ 17:44:
[...]

ja want je verward iet wat bij de wet als regel is vastgelegd met een gevoel
Nee juist niet! Het is bij de wet vastgelegd dat een volwassene verantwoordelijk is voor zijn eigen daden. Ik zou het vreemd vinden dat jij je verantwoordelijk voelt voor de daden die jouw zoon of dochter verricht. Als je zegt dat het jouw schuld is, als je zoon verongelukt, dan heb je niet helemaal begrepen dat je verantwoordelijk bent voor je eigen daden, en dat een heel belangrijk deel is in de opvoeding van een kind wat betreft grenzen zoeken.

("je" is hier algemeen, dus niet persoonlijk)

  • PipoDeClown
  • Registratie: September 2000
  • Niet online

PipoDeClown

Izze Zimpell

Verwijderd schreef op 16 juni 2004 @ 17:50:
[...]

Nee juist niet! Het is bij de wet vastgelegd dat een volwassene verantwoordelijk is voor zijn eigen daden. Ik zou het vreemd vinden dat jij je verantwoordelijk voelt voor de daden die jouw zoon of dochter verricht. Als je zegt dat het jouw schuld is, als je zoon verongelukt, dan heb je niet helemaal begrepen dat je verantwoordelijk bent voor je eigen daden, en dat een heel belangrijk deel is in de opvoeding van een kind wat betreft grenzen zoeken.

("je" is hier algemeen, dus niet persoonlijk)
stel je hiermee dat "het wettelijk verantwoordelijk zijn" en "het verantwoordelijk voelen" elkaar uitsluit (mutual exclusive, wasda int hollands), dat deze twee niet tegelijk kunnen?

[ Voor 3% gewijzigd door PipoDeClown op 16-06-2004 18:06 ]

God weet alles, want hij is lid van de Mosad. To protect your freedom i will take that away from you. Mijn drankgebruik heeft ernstig te lijden onder mijn gezondheid.


Verwijderd

Verwijderd schreef op 16 juni 2004 @ 17:35:
Dus jij bent verantwoordelijk voor je kind? In de eerste jaren tuurlijk... Maar als je kind zich eenmaal zelfstandig noemt (volgens onze wet bij 21 jaar) ben je niet meer verantwoordelijk voor zijn/haar daden. Dan is hij/zij zelf verantwoordelijk, omdat hij dan "waarschijnlijk" zelf een verantwoordelijkheidsgevoel heeft ontwikkeld.
Trek de analogie niet te ver door. Ik vergelijk het creeeren van een kunstmatige intelligentie/bewustzijn met het op de wereld zetten van een kind. Dat wil niet zeggen dat het hetzelfde is. Of wil je een discussie beginnen over wanneer een kunstmatige intelligentie volwassen is?

Lijkt me niet erg zinvol...

Verwijderd

Verwijderd schreef op 16 juni 2004 @ 18:44:
[...]

Trek de analogie niet te ver door. Ik vergelijk het creeeren van een kunstmatige intelligentie/bewustzijn met het op de wereld zetten van een kind. Dat wil niet zeggen dat het hetzelfde is. Of wil je een discussie beginnen over wanneer een kunstmatige intelligentie volwassen is?

Lijkt me niet erg zinvol...
Lijkt me wel... Als je besluit om de AI te maken, dan zal je toch moeten beslissen of die AI zelfstandig is en moralen van onze samenleving kan hanteren. Het heeft niet veel zin een AI te maken die niet weet wat hij doet en geen verantwoording voor zijn daden kan afleggen. Ik denk dat het erg zinvol is om te kijken wanneer een AI "volwassen" is.

  • Dido
  • Registratie: Maart 2002
  • Laatst online: 19:25

Dido

heforshe

Verwijderd schreef op 15 juni 2004 @ 11:02:
Nope, het doel van een Turing test is vast te stellen of de te testen entiteit (mensachtige) intelligentie bezit.
http://www.webopedia.com/TERM/T/Turing_test.html
Oftewel: je slaagt voor de Turingtest als de ondervrager niet kan uitmaken of ie met een mens of een machine communiceert.
Een bovenmatige blijk van inteligentie zou dus strikt genomen juist zorgen voor het falen van de Turingtest.

Je kunt je dan ook afvragen of de Turingtest niet obsolete wordt zodra AI inteligenter wordt dan je van een mens kunt verwachten :)

Turing ging ervan uit dat een machine bewees dat ie inteligentie bezat als ie als mens kon communiceren. De vraag die hij wilde beantwoorden was wel of een machine inteligent was, maar de test meet geen inteligentie.
(Dus de Atilla de Hun vraag hoeft ook niet correct beantwoord te worden: een machine die teveel weet valt als niet-inteligent door de mand) :P

Wat betekent mijn avatar?


  • Kwartjuh
  • Registratie: Mei 2002
  • Laatst online: 26-01 09:39
Laat het nooit gebeuren... want dan kunnen de afleveringen van the Animatrix 'The Second Renaissance Part I en Part II' wel eens werkelijkheid worden....

De matrix is een zeer goede, maar niet helemaal realistische film. Toch zie ik de films als een waarschuwing: waar zijn de grenzen?

-[ Het Kwartjuh Valt... ]-


Verwijderd

Dido schreef op 17 juni 2004 @ 16:13:
http://www.webopedia.com/TERM/T/Turing_test.html
Oftewel: je slaagt voor de Turingtest als de ondervrager niet kan uitmaken of ie met een mens of een machine communiceert.
backquote van jouw site:
A test devised by the English mathematician Alan M. Turing to determine whether or not a computer can be said to think like a human brain.
Wat is dus het verschil met wat ik in mijn bovenstaande posts beweer? Het gaat primair om het verschijnsel "intelligentie" en niet om het verschijnsel "mens zijn".
Turing ging ervan uit dat een machine bewees dat ie inteligentie bezat als ie als mens kon communiceren. De vraag die hij wilde beantwoorden was wel of een machine inteligent was, maar de test meet geen inteligentie.
De test meet wel intelligentie, maar niet als een coëfficiënt (m.a.w. het is geen IQ test).

Verwijderd

Je moet eerst terug gaan naar de vraag of wat wij beschouwen als intelligentie ook daadwerkelijk intelligentie is. Omdat wij het niet herkennen als intelligentie, betekent het nog niet dat dat het niet is.

Dus wanneer wij het hebben over kunstmatige intelligentie praten we vaak over intelligentie die naar ons model van intelligentie gevormd is, en je je tot die vorm van intelligentie beperkend, kun je makkelijker voorwaarden bepalen (voor die vorm).

Wanneer je het hebt over intelligentie, moet je het dus ook hebben over organismen. Een organisme zal dus altijd werktuigen hebben voor een bepaalde functie. Die werktuigen hoeven in zichzelf niet intelligent te zijn. Het kunnen voelen van een zandkorrel is dan ook geen bewijs van intelligentie....

Gaan we door naar zelfbewustzijn, volgens mij ook een voorwaarde voor AI van enige importantie. Mij is nog niet duidelijk waar ons zelfbewustzijn vandaan komt, en aannemende dat dat voor een AI niet veel anders zal zijn, zal het voor deze al een hele weg zijn om te komen tot iets wat - in onze ogen althans - daadwerkelijk kunstmatige intelligentie is.

  • Muttley
  • Registratie: Februari 2001
  • Laatst online: 30-04-2025
Kunstmatige intelligentie kun je ook van werktuigen voorzien, zoals sensoren. Het hoeft dus niet per se een organisme te zijn.
Het probleem is dat k.i. niet intelligenter kan zijn dan wij zelf, want wij creeren het tenslotte. Als wij niet meegeven aan k.i. dan het k.i. is, dan dat "het" er niet achter komen, tenzij wij het dusdanig intelligent gemaakt hebben naar ons eigen voorbeeld. Op het moment dat k.i. beseft dat het k.i. is, heeft het een aantal mogelijkheden, waaronder het creeeren van k.i., toch? Ook gaat hij zijn schepper definieren als god.
Als we God als intelligentie beschouwen en God schiep alles, dan zijn wij dus ook k.i.......

An 11 is a 10 that swallows


  • Opi
  • Registratie: Maart 2002
  • Niet online

Opi

Muttley schreef op 17 juni 2004 @ 18:27:
Het probleem is dat k.i. niet intelligenter kan zijn dan wij zelf, want wij creeren het tenslotte.
Ik begrijp niet hoe je tot deze conclusie bent gekomen.
Als wij niet meegeven aan k.i. dan het k.i. is, dan dat "het" er niet achter komen
De vraag is of er in dit geval sprake is van k.i.
tenzij wij het dusdanig intelligent gemaakt hebben naar ons eigen voorbeeld.
Op basis waarvan stel je dat dit een noodzaak is?

Verwijderd

Christiaan schreef op 13 juni 2004 @ 10:53:
Pas, bijvoorbeeld, is ontdekt dat glia-cellen zeer waarschijnlijk een grote rol spelen in de informatieverwerking van het brein, en aangezien er daar veel meer van zijn dan neuronen, denk ik niet dat het zo makkelijk is om te zeggen dat enkel een neural netwerk genoeg is.
Neurale netwerken kunnen elke functie benaderen, dus ook de functie "intelligente machine met emoties of whatever".
Deze statement is alleen niet zo heel erg interessant, omdat het veel te lang duurt om op een zinvolle netwerkstructuur uit te komen, die bepaalde taken snel kan leren. Bij mensen is dat geëvolueerd, als dat ook bij het creëren van een intelligente machine de aanpak is, dan is det tijd die nodig is voor het ontwikkelen van zo'n A.I. >>100 jaar
Beetje offtopic misschien, maar neurale netwerken zijn imho niet de manier om intelligentie te ontwikkelen. Volgens bovenstaande redenering heb je wel een intelligentie dan, maar die intelligentie heeft nog steeds het probleem, dat deze niet begrijpt waarom hij iets doet. Mensen zeggen dat ze weten waarom ze een bepaalde actie doen, als in zelfbewustzijn, maar dit is helemaal niet zeker. In dit opzicht zijn mensen dus ook niet zo heel erg intelligent, ookal voelt iedereen zich hartstikke intelligent.

  • Aetje
  • Registratie: September 2001
  • Laatst online: 18-12-2025

Aetje

Troubleshooting met HAMERRR

Confusion schreef op 11 juni 2004 @ 23:23:
Omdat bewustzijn zoveel input moet verwerken dat het dat nooit volledig kan: precies het probleem dat wij mensen hebben. De demon van Descartes zou zoveel processorkracht vereisen dat hij een eeuwige praktische onmogelijkheid is. Een AI zal fuzzy logic moeten gebruiken en zelf-adaptief moeten zijn, misschien ook op het fysieke niveau. Mensen zullen nooit de hersenen volledig in kaart kunnen brengen; we zullen nooit een hersennetwerk na kunnen bouwen: net als de demon van Descartes is dat een probleem dat teveel rekenkracht vereist. Waar we wel op kunnen hopen, is het bouwen van een systeem dat zichzelf kan ontwikkelen tot iets met de complexiteit van de menselijke hersenen. Er liggen waarschijnlijk slechts een beperkte set eenvoudige regels aan ten grondslag, zoals aan evolutie, zoals aan wiskunde, zoals aan het universum (voorzover wij kunnen zien, maar zeer nauwkeurige beschrijvingen oplevert; nauwkeurig genoeg om zoiets te reproduceren in ieder geval).
"Noone will need more then 640KB RAM..."
Om maar een parallel te trekken. De techniek zal de beperkende factor niet zijn in de AI... Toegegeven, het is onwaarschijnlijk dat een digitale AI dit ooit zal kunnen, maar er zijn andere technieken in ontwikkeling (quantum comp bijvoorbeeld). En daar er al een functionerend prototype is in biologische vorm (onze hersenen) is het bewezen dat het minimaal mogelijk is de mens te evenaren...
Het is niet onmogelijk omdat we het -nog- niet kunnen.

Forget your fears...
...and want to know more...


  • Muttley
  • Registratie: Februari 2001
  • Laatst online: 30-04-2025
OpifexMaximus schreef op 17 juni 2004 @ 21:01:
[...]

Ik begrijp niet hoe je tot deze conclusie bent gekomen.
Ik zie wel eens mensen uitgalten worden door hun hond. Volgens mij is dit niet de bedoeling. Wil jij intelligentie creeeren dat intelligenter is dan jezelf, waardoor de kans bestaat dat je er ondergeschikt aan kan worden?
[...]

De vraag is of er in dit geval sprake is van k.i.
Is volgens jou k.i. alleen k.i. als er k.i. op staat of als "het" weet dat het k.i. is?
[...]

Op basis waarvan stel je dat dit een noodzaak is?
Als wij k.i. naar ons voorbeeld maken, zou het kunnen evalueren en zelf dingen bedenken, emoties hebben etc. In eerste instantie zal je de k.i. "op moeten voeden". Uit zichzelf hoeft hij niets te weten (ok, je kan vormen bedenken waarbij dit wel het geval is, maar de vraag is of dat praktisch haalbaar is).
De basisvaardigheden worden hem dus aangeleerd.
Als hij geen emoties heeft, heeft hij geen behoefte om zijn afkomst te onderzoeken of zichzelf zodanig te verbeteren dat hij wil overheersen. Alleen de mens wil dat. Wil je dat k.i. dit ook kan, zul je hem naar eigen voorbeeld moeten creeeren.

An 11 is a 10 that swallows


  • Ericston
  • Registratie: Maart 2001
  • Laatst online: 03-11-2025
Hm, er zijn nu twee discussies gaande geloof ik, eentje die begon over de mogelijkheid van het evolueren van intelligentie en vervolgens overging op bepaalde ethische kwesties, en deze discussie:
Verwijderd schreef op 17 juni 2004 @ 17:37:
[...]

Wat is dus het verschil met wat ik in mijn bovenstaande posts beweer? Het gaat primair om het verschijnsel "intelligentie" en niet om het verschijnsel "mens zijn".

[...]

De test meet wel intelligentie, maar niet als een coëfficiënt (m.a.w. het is geen IQ test).
...waar mietje desperately zijn interpretatie van de Turing test probeert te verdedigen.

Wellicht ga ik later nog in op die andere discussie. maar voor nu ('t is al laat) wil ik alleen even ingaan op de mietjes betoog. Ik vraag mij namelijk af of mietje 'Computing Machinery and Intelligence' heeft gelezen. Turing stelde zichzelf de vraag 'Can machines think?', maar omdat 'denken' geen duidelijk definitie heeft en de algemeen geldende mening is dat mensen kunnen denken, besloot hij om de vraag te veranderen voor een andere vraag, namelijk of het mogelijk is voor een machine om zich voor te doen als mens. Dit in de vorm van de Turing test. Valt de test positief uit voor een bepaalde machine, dan volgt volgens Turing dat de machine inderdaad in staat is om te denken. Uit de test op zich volgt dus niets, niet of een 'entiteit' intelligentie bezit (zoals mietje denkt en door kunstgrepen met aliens wil weerleggen :)) en niet het antwoord op de vraag of een 'proefpersoon' kunstmatige of menselijk is (waarvan MSalters al correct opmerkte dat dat op zich niks uitmaakt). Het gaat namelijk om de meta-vraag.

In lijn hiermee wil ik de volgende analogie maken om het begrip intelligentie wat duidelijk te krijgen: een vogel bezit de intelligentie om te vliegen, zo bezit een vliegtuig hiervoor ook de (kunstmatige) intelligentie. De betekenis van intelligentie in dit topic is vooral de intelligentie om te denken en dat is ook de intelligentie die Turing bedoeld, en dus niet de intelligentie om goed voetbal te spelen of de intelligentie om postzegels te plakken (want dat test je dus niet met de Turing test).

(Misschien rek ik de betekenis van intelligentie zo iets teveel naar de mening van sommigen, maar wellicht biedt het ook wat meer houvast in dit topic.)

mietje: voor zover ik weet zijn er argumenten tegen de Turing test die wel stand houden, check daarvoor Turings artikel en vind de gaten in Turings tegenargumenten, of zoek op internet.

[ Voor 6% gewijzigd door Ericston op 19-06-2004 03:12 ]


Verwijderd

A.I dit is een gevaarlijk onderwerp

om mee te experimenteren

stel je eens voor een weterschapper bouwt

een animatron / robot met zon gigantisch geavanceerd A.I

deze animatron is vervolgens in staat om een animatron te bouwen die nog een

hogere A.I gehalte heeft deze animatron doet vervolgens precies het zelfde als de

Animatron die hem gebouwt heeft waardoor de animatron die er opvolgt nog meer

geavanceerde technologie bevat and so on and so on and so on

Erug eng allemaal als je het mij vraagt :|

Verwijderd

Verwijderd schreef op 17 juni 2004 @ 15:59:
Lijkt me wel... Als je besluit om de AI te maken, dan zal je toch moeten beslissen of die AI zelfstandig is en moralen van onze samenleving kan hanteren. Het heeft niet veel zin een AI te maken die niet weet wat hij doet en geen verantwoording voor zijn daden kan afleggen. Ik denk dat het erg zinvol is om te kijken wanneer een AI "volwassen" is.
In principe wel, maar helaas slaat het weer een ander discussiepad in terwijl nog niemand een zinnig antwoord heeft gegeven op mijn vraag of het ethisch verantwoord is om met kunstmatige bewustzijns/intelligenties te experimenteren. Maar misschien ben ik de enige die dat een interessante vraag vindt en zijn de vragen of je verantwoordelijk bent voor je kinderen en wanneer computers volwassen zijn wel interessanter.

  • Aetje
  • Registratie: September 2001
  • Laatst online: 18-12-2025

Aetje

Troubleshooting met HAMERRR

Verwijderd schreef op 19 juni 2004 @ 06:35:
A.I dit is een gevaarlijk onderwerp
om mee te experimenteren
stel je eens voor een weterschapper bouwt
een animatron / robot met zon gigantisch geavanceerd A.I
deze animatron is vervolgens in staat om een animatron te bouwen die nog een
hogere A.I gehalte heeft deze animatron doet vervolgens precies het zelfde als de
Animatron die hem gebouwt heeft waardoor de animatron die er opvolgt nog meer
geavanceerde technologie bevat and so on and so on and so on
Erug eng allemaal als je het mij vraagt :|
Valt wel mee. De natuur doet het al milennia lang. Alleen die gebruikt organische materie ipv computercode.

Forget your fears...
...and want to know more...


  • Confusion
  • Registratie: April 2001
  • Laatst online: 01-03-2024

Confusion

Fallen from grace

Topicstarter
Aetje schreef op 17 juni 2004 @ 23:47:
[...]
De techniek zal de beperkende factor niet zijn in de AI... Toegegeven, het is onwaarschijnlijk dat een digitale AI dit ooit zal kunnen, maar er zijn andere technieken in ontwikkeling (quantum comp bijvoorbeeld). En daar er al een functionerend prototype is in biologische vorm (onze hersenen) is het bewezen dat het minimaal mogelijk is de mens te evenaren...
Het is niet onmogelijk omdat we het -nog- niet kunnen.
Onze hersenen zijn geen quantumcomputer; daarvoor is de temperatuur in het menselijk lichaam te hoog. De coherentietijd is in de hersenen te klein om quantummechanische effecten relevant te laten zijn.

Bovendien begrijp je denk ik de fundamentele oorsprong van mijn uitspraak niet: de demon van Descartes is een probleem dat altijd onberekenbaar zal blijven. Dat kunnen we net zo goed concluderen als we kunnen concluderen dat we bepaalde energieën nooit met deeltjesversnellers zullen halen: er zitten fundamentele fysische grenzen aan wat haalbaar is en als we meer willen, moeten we groter dan bijvoorbeeld de afmeting van de aarde of zelfs het zonnestelsel. Processoren kan je wel groter maken, maar de maximale processorcapaciteit per oppervlak kent een fundamentele fysische limiet, de schakelsnelheid van elementen kent een fundamentele fysische limiet en vervolgens heb je de lichtsnelheid nog als limiet voor informatieverplaatsing. Een quantumcomputer kan delen van het probleem oplossen, maar niet het hele probleem: ook een quantumcomputer is niet almachtig.

Wie trösten wir uns, die Mörder aller Mörder?


  • ErA
  • Registratie: Juli 2001
  • Laatst online: 19:06

ErA

Ik heb het topic niet goed doorgelezen, maar ik heb toevallig van de week lopen nadenken over A.I of K.I. Zoals bij wel meer moeilijke zaken zat ik hier eens hard over na te denk en en kwam eingelijk tot de conclusie dat echteAI in mijn ogen niet bestaat en nooit kan bestaan.

AI = Kunstmatige intiligentie.
Kunstamtig = door ons gemaakt
Intiligentie = omstreden begrip.

Anyways nu mijn " probleem" AI hoeft dus geen bewustzijn te zijn als in zelf lerende onvoorspelbare bewegingen/acties/beslissingen van een kunstmatig iets. Intiligentie is namelijk al het goed beantwoorden van een aantal vragen of een juiste beslissing nemen.
Zo bestaat er dus al een heleboel AI.
Echt AI daarentegen zal nooit bestaan. Echte AI (Foute benaming eingelijk) kan niet bestaan. als we bijvoorbeeld een robot nemen en die moet nu iets onvoorspelbaar gaan doen. Dat betekent dat de robot een actie moet ondernemen op basis van wat hij waarneemt, maar verder nix. Er mogen geen ideeen in de robot zijn opgenomen etc. Dit kan gewoon absoluut niet.

Ik vind het best pittig om mijn standpunt te laten zien, maar het is gewoon dat het bewustzijn van een kunstmatig iets niet kan bestaan.
Een kunstmatig iets is gebaseerd op nullen en enen, hij kan zich uitbreiden met nullen en enen. maar hij zal nooit en te never iets kunnen verzinnen. Niet als hij geen gegevens krijgt om mee te denken.

Verwijderd

ErA schreef op 19 juni 2004 @ 11:53:
Ik heb het topic niet goed doorgelezen, maar ik heb toevallig van de week lopen nadenken over A.I of K.I. Zoals bij wel meer moeilijke zaken zat ik hier eens hard over na te denk en en kwam eingelijk tot de conclusie dat echteAI in mijn ogen niet bestaat en nooit kan bestaan.

AI = Kunstmatige intiligentie.
Kunstamtig = door ons gemaakt
Intiligentie = omstreden begrip.

Anyways nu mijn " probleem" AI hoeft dus geen bewustzijn te zijn als in zelf lerende onvoorspelbare bewegingen/acties/beslissingen van een kunstmatig iets. Intiligentie is namelijk al het goed beantwoorden van een aantal vragen of een juiste beslissing nemen.
Wat wij in dit topic bedoelen met Artificial Intelligence, is meer het idee van een vorm van zelfbewustzijn en de mogelijkheid hebben om te leren. Dit zijn belangrijke voorwaarden voor een A.I. volgens mij
Echt AI daarentegen zal nooit bestaan. Echte AI (Foute benaming eingelijk) kan niet bestaan. als we bijvoorbeeld een robot nemen en die moet nu iets onvoorspelbaar gaan doen.
Waarom moet een A.I. iets onvoorspeelbaars doen om A.I. te zijn? Doen wij ook alleen maar onvoorspelbare dingen? Wij wegen keuzes af en maken vaak voorspelbare keuzes (Bijv. plezier boven pijn). Wij kunnen geen beslissing maken zonder een afweging te maken. Ook al zeg je dat je zomaar iets doet, je maakt wel een keuze op grond van een herinnering of ervaring. Dat is dus geen voorwaarde voor een A.I.
Dat betekent dat de robot een actie moet ondernemen op basis van wat hij waarneemt, maar verder nix. Er mogen geen ideeen in de robot zijn opgenomen etc. Dit kan gewoon absoluut niet.
Waarom niet? waarom mogen er geen ideeen in robots onstaan? Dat zou toch juist fantastisch zijn in mijn ogen. Dat is volgens mij ook een voorwaarde van A.I. Door ontwikkeling van ideeen kan een A.I. leren om te leren
Ik vind het best pittig om mijn standpunt te laten zien, maar het is gewoon dat het bewustzijn van een kunstmatig iets niet kan bestaan.
Een kunstmatig iets is gebaseerd op nullen en enen, hij kan zich uitbreiden met nullen en enen. maar hij zal nooit en te never iets kunnen verzinnen. Niet als hij geen gegevens krijgt om mee te denken.
Het brein van een A.I. hoeft niet per se uit nullen en enen te bestaan. Ik heb het idee dat de meesten een A.I. als een robot zien, als in een ding gemaakt van staal en chips en transistoren. Ik denk dat het veel waarschijnlijker is dat de eerste A.I. uit zachte materie/biologisch weefsels zal bestaan. Zoals Christiaan zei spelen gliacellen bijvoorbeeld een belangrijke rol in onze hersenen. Voordat we een A.I. kunnen creeeren die lijkt op ons, zullen we toch eerst moeten bekijken of wij onze besluiten maken met onze hersenen (dus slechts materie en energie) of dat er iets van een geest/ziel aanwezig is waarmee wij onze besluiten maken.

Verwijderd

Ericston schreef op 19 juni 2004 @ 03:09:
Wellicht ga ik later nog in op die andere discussie. maar voor nu ('t is al laat) wil ik alleen even ingaan op de mietjes betoog. Ik vraag mij namelijk af of mietje 'Computing Machinery and Intelligence' heeft gelezen.
Jep, was verplicht leesvoer tijdens mijn studie.
Valt de test positief uit voor een bepaalde machine, dan volgt volgens Turing dat de machine inderdaad in staat is om te denken. Uit de test op zich volgt dus niets, niet of een 'entiteit' intelligentie bezit (zoals mietje denkt en door kunstgrepen met aliens wil weerleggen :)) en niet het antwoord op de vraag of een 'proefpersoon' kunstmatige of menselijk is (waarvan MSalters al correct opmerkte dat dat op zich niks uitmaakt). Het gaat namelijk om de meta-vraag.
Ik wel helemaal niets weerleggen, ik probeer alleen in het kader van de discussie te argumenteren. Omdat er geen definitie van "bewustzijn" gegeven wordt (evenmin als van "denken") en men "bewustzijn" gelijkstelt aan "denken" dacht ik te mogen concluderen dat "intelligentie" dan ook wel het zelfde zou zijn. Het punt is en blijft dat men met een Turing test dus niet kan bewijzen dat de te testen entiteit bewustzijn heeft, alleen of ze (menselijk) denkvermogen/intelligentie bezit.

  • ErA
  • Registratie: Juli 2001
  • Laatst online: 19:06

ErA

Ik denk dat iets wat je ook moet doen is inderdaad verklaren wat de mens eingelijk is, zijn wij niet ook gewoon AI? Zojah, als wij inderdaad het voorbeeld van een perfecte AI zijn dan denk ik dat eer dat de mens dit zelf kan maken, zonder veel gebruik te maken van de mens (Hersenen gebruiken ofzo), dat we dan wel een paar duizend jaar verder zijn. En dan inderdaad nog vaststellen of een Ziel bestaat of iets dergelijks.

[lichtelijk offtopic]
Ik moet wel zeggen dat deze discussie net als vele andere in w&L een ongeflooflijke moeilijke is. En mischien wel compleet niet te verklaren.
Wat ik daarentegen wel merk, is dat sommige stellingen, bedacht door "grootste denkers / wetenschappers" van deze wereld soms mooi worden ontkracht door tweakers.
[/lichtelijk offtopic]

  • Ericston
  • Registratie: Maart 2001
  • Laatst online: 03-11-2025
Verwijderd schreef op 17 juni 2004 @ 22:03:
[...]
Neurale netwerken kunnen elke functie benaderen, dus ook de functie "intelligente machine met emoties of whatever".
Neurale netwerken zijn computationeel equivalent aan de Turing Machine en kan dus volgens de Church-Turing hypothese alle berekenbare functies beschrijven. Het zou balen zijn als 'intelligente machine met mentale toestanden' een niet-berekenbare functie is. :)
Deze statement is alleen niet zo heel erg interessant, omdat het veel te lang duurt om op een zinvolle netwerkstructuur uit te komen, die bepaalde taken snel kan leren. Bij mensen is dat geëvolueerd, als dat ook bij het creëren van een intelligente machine de aanpak is, dan is det tijd die nodig is voor het ontwikkelen van zo'n A.I. >>100 jaar
Ik denk dat je schatting behoorlijk uit de lucht gegrepen is maar afgezien daarvan wil ik voor the sake of the argument wel even zeggen dat 100 jaar me nog een redelijke wachttijd lijkt voor een dergelijke ontwikkeling.
Beetje offtopic misschien, maar neurale netwerken zijn imho niet de manier om intelligentie te ontwikkelen. Volgens bovenstaande redenering heb je wel een intelligentie dan, maar die intelligentie heeft nog steeds het probleem, dat deze niet begrijpt waarom hij iets doet. Mensen zeggen dat ze weten waarom ze een bepaalde actie doen, als in zelfbewustzijn, maar dit is helemaal niet zeker. In dit opzicht zijn mensen dus ook niet zo heel erg intelligent, ookal voelt iedereen zich hartstikke intelligent.
Hm, dus je bent eigenlijk van mening dat neurale netwerken wel menselijke 'intelligentie' kunnen bereiken maar dat de algemeen gangbare definitie van intelligentie niet klopt omdat mensen geen vrije wil/bewustzijn bezitten?
Verwijderd schreef op 19 juni 2004 @ 14:24:
[...]

Het brein van een A.I. hoeft niet per se uit nullen en enen te bestaan. Ik heb het idee dat de meesten een A.I. als een robot zien, als in een ding gemaakt van staal en chips en transistoren. Ik denk dat het veel waarschijnlijker is dat de eerste A.I. uit zachte materie/biologisch weefsels zal bestaan. Zoals Christiaan zei spelen gliacellen bijvoorbeeld een belangrijke rol in onze hersenen. Voordat we een A.I. kunnen creeeren die lijkt op ons, zullen we toch eerst moeten bekijken of wij onze besluiten maken met onze hersenen (dus slechts materie en energie) of dat er iets van een geest/ziel aanwezig is waarmee wij onze besluiten maken.
Eep, een 'superstrong-AI'-persoon (oftewel een materialist). Ga je straks beweren dat mensen klonen ook het maken van kunstmatige intelligentie is? :) (Ja, mensen in hokjes stoppen rocks.)

Pas trouwens op dat we niet full-circle gaan en via dualisme weer terugkomen bij de vraag of god bestaat. :)
Verwijderd schreef op 19 juni 2004 @ 15:08:
[...]

Jep, was verplicht leesvoer tijdens mijn studie.
Check. :)
[...]

Ik wel helemaal niets weerleggen, ik probeer alleen in het kader van de discussie te argumenteren. Omdat er geen definitie van "bewustzijn" gegeven wordt (evenmin als van "denken") en men "bewustzijn" gelijkstelt aan "denken" dacht ik te mogen concluderen dat "intelligentie" dan ook wel het zelfde zou zijn. Het punt is en blijft dat men met een Turing test dus niet kan bewijzen dat de te testen entiteit bewustzijn heeft, alleen of ze (menselijk) denkvermogen/intelligentie bezit.
Ah, ik zie nu dat dat is wat je bedoelde in de eerste post (maar dat zei je niet :P).

Bewustzijn is wat mij betreft geen premisse voor kunstmatige intelligentie, ik denk namelijk dat we al blij mogen zijn als we ooit een redelijke input-output mapping krijgen ook al blijkt met nog uit te vinden technieken dat de KI geen bewustzijn bezit. Al die mensen die bang zijn voor de singularity en matrixiaanse toestanden op korte termijn zouden eens de huidige staat van het vakgebied onder de loep moeten nemen om hun beeld wat te nuanceren.

  • ErA
  • Registratie: Juli 2001
  • Laatst online: 19:06

ErA

Juist nu moet ik toch wel even wat zeggen:
Bewustzijn is wat mij betreft geen premisse voor kunstmatige intelligentie, ik denk namelijk dat we al blij mogen zijn als we ooit een redelijke input-output mapping krijgen ook al blijkt met nog uit te vinden technieken dat de KI geen bewustzijn bezit. Al die mensen die bang zijn voor de singularity en matrixiaanse toestanden op korte termijn zouden eens de huidige staat van het vakgebied onder de loep moeten nemen om hun beeld wat te nuanceren.
Jij zegt dus dat we blij mogen zijn met kunstmatige intiliggentie zonder bewustzijn nietwaar?
Maar dat houdt in dat als ik een robot (afgezaagd voorbeeld) in programmeer met miljarden terrabytes aan data en code. Dat deze robot alles zou kunnen, alles zou weten etc etc..
Echter spreek je dan nog wel van echte kunstamtige intiligentie.
But then again, als je die robot niet die miljarden terrabytes aan data geeft, en je wilt dus dat hij dingen zelf oplost. Dan dient hij juist weer bewustzijn te hebben denk ik dan.


AArgh zon zwaar vraagstuk :d ook verschrikkelijk moeilijk te verwoorden.

Verwijderd

ErA schreef op 19 juni 2004 @ 16:57:
Juist nu moet ik toch wel even wat zeggen:


[...]


Jij zegt dus dat we blij mogen zijn met kunstmatige intiliggentie zonder bewustzijn nietwaar?
Maar dat houdt in dat als ik een robot (afgezaagd voorbeeld) in programmeer met miljarden terrabytes aan data en code. Dat deze robot alles zou kunnen, alles zou weten etc etc..
Echter spreek je dan nog wel van echte kunstamtige intiligentie.
Wat is echte? Echte is ongedefinieerd, en kun je ook niet zinvol definiëren. Misschien heb jij ook wel geen echte intelligentie. Googlen op Chinese Kamer experiment zal dit wel toelichten.. :)

  • Ericston
  • Registratie: Maart 2001
  • Laatst online: 03-11-2025
ErA schreef op 19 juni 2004 @ 16:57:
[...]

Jij zegt dus dat we blij mogen zijn met kunstmatige intiliggentie zonder bewustzijn nietwaar?
Maar dat houdt in dat als ik een robot (afgezaagd voorbeeld) in programmeer met miljarden terrabytes aan data en code. Dat deze robot alles zou kunnen, alles zou weten etc etc..
(Dat is niet noodzakelijk, dat doen wij immers ook niet. Verwar intelligentie niet met kennis.)
Echter spreek je dan nog wel van echte kunstamtige intiligentie.
But then again, als je die robot niet die miljarden terrabytes aan data geeft, en je wilt dus dat hij dingen zelf oplost. Dan dient hij juist weer bewustzijn te hebben denk ik dan.
Ik ben van mening dat bewustzijn zoals wij het ervaren een emergerende eigenschap is van die miljarden terabytes aan data maar ook de processen die zich daartussen afspelen in ons hoofd. Die processen zorgen ook voor ons probleem oplossend vermogen en er bestaan ook gewoon computerprogramma's die problemen oplossen (denk aan schaakprogramma's) en dus een zeker redeneervermogen bezitten, dat is dus geen probleem.
Ik zie je punt niet helemaal. Bedoel je dat wij echte intelligentie alleen kunnen maken als we eerst een manier vinden om bewustzijn te maken? Zou dat minder complex zijn dan het programmeren van miljoenen regels code?
AArgh zon zwaar vraagstuk :d ook verschrikkelijk moeilijk te verwoorden.
Heh, yup. Check eens Matter & Consciousness van Paul Churchland of Consciousness Explained van Daniel Dennett. Ik heb ze overigens (nog) niet gelezen, maar het zijn voor zover ik weet wel de basisboeken op dit gebied (filosofie van de geest, bewustzijn). Om een diepgaand overzicht van het gebied van kunstmatige intelligentie (dat zich veel verder uitstrekt dan wat hier in dit topic wordt besproken) te krijgen is Artificial Intelligence, A Modern Approach van Russell en Norvig een goed boek (maar niet echt goedkoop).

  • Zoijar
  • Registratie: September 2001
  • Niet online

Zoijar

Because he doesn't row...

Ericston schreef op 19 juni 2004 @ 16:51:
Neurale netwerken zijn computationeel equivalent aan de Turing Machine en kan dus volgens de Church-Turing hypothese alle berekenbare functies beschrijven. Het zou balen zijn als 'intelligente machine met mentale toestanden' een niet-berekenbare functie is. :)
Dat zou natuurlijk heel goed wel eens kunnen. Er zijn al "simpelere" problemen die bewijsbaar niet turing computable zijn, maar die wij met onze wiskunde basis en redenatie vermogen wel op kunnen lossen op meta niveau. Op grond van deze hypothese kan het dus idd mogelijk zijn dat een mens evenarende AI onmogelijk is. Maar het blijft ook een hypothese, er is geen bewijs oid in de algemene vorm. Grappig trouwens dat je zoveel onbewijsbare/onberekenbare dingen hebt die met elkaar samenhangen. Het lijkt soms wel of die allemaal het gevolg zijn van een hoger iets. Wellicht iets te maken met het onzekerheids principe?

Verwijderd

Ericston schreef op 19 juni 2004 @ 19:39:

Ik ben van mening dat bewustzijn zoals wij het ervaren een emergerende eigenschap is van die miljarden terabytes aan data maar ook de processen die zich daartussen afspelen in ons hoofd. Die processen zorgen ook voor ons probleem oplossend vermogen en er bestaan ook gewoon computerprogramma's die problemen oplossen (denk aan schaakprogramma's) en dus een zeker redeneervermogen bezitten, dat is dus geen probleem.
Ik snap je definitie van bewustzijn niet helemaal. Een combinatie van miljarden terabytes en processen? Volgens die definitie zou een Supercomputer bewust van zichzelf zijn. Ik denk dat ik snap als je bedoelt dat bewustzijn niet echt een eigenschap op zich is. Maar kijk uit dat je bewustzijn niet koppelt aan het geprogrammeerde oplossende vermogen, want dat is niet hetzelfde
Ik zie je punt niet helemaal. Bedoel je dat wij echte intelligentie alleen kunnen maken als we eerst een manier vinden om bewustzijn te maken? Zou dat minder complex zijn dan het programmeren van miljoenen regels code?
Goed punt, maar ik denk dat bewustzijn een absolute must is voor A.I. Zonder bewustzijn, reageert een computer op zijn input op de manier waarop deze is geprogrammeerd en zou hij altijd voorspelbaar (wel complex voorspelbaar) gedrag vertonen. Als hij niet weet/begrijpt OF (let op, ik zeg geen waarom) hij een actie uitvoert, dan zal hij nooit "gedrag" in onze woorden kunnen vertonen. Natuurlijk is de vraag dan wederom hoe ver de A.I. wil doortrekken.
Heh, yup. Check eens Matter & Consciousness van Paul Churchland of Consciousness Explained van Daniel Dennett. Ik heb ze overigens (nog) niet gelezen, maar het zijn voor zover ik weet wel de basisboeken op dit gebied (filosofie van de geest, bewustzijn). Om een diepgaand overzicht van het gebied van kunstmatige intelligentie (dat zich veel verder uitstrekt dan wat hier in dit topic wordt besproken) te krijgen is Artificial Intelligence, A Modern Approach van Russell en Norvig een goed boek (maar niet echt goedkoop).
Dank je :+, ik zal eens kijken. Misschien komen we dan op dezelfde lijn te zitten

  • Ericston
  • Registratie: Maart 2001
  • Laatst online: 03-11-2025
Verwijderd schreef op 20 juni 2004 @ 15:57:
[...]


Ik snap je definitie van bewustzijn niet helemaal. Een combinatie van miljarden terabytes en processen? Volgens die definitie zou een Supercomputer bewust van zichzelf zijn. Ik denk dat ik snap als je bedoelt dat bewustzijn niet echt een eigenschap op zich is.
Ik definieer bewustzijn ook niet, ik zeg dat het iets is dat het gevolg is van de processen in ons hoofd. Bovendien denk ik juist wel dat bewustzijn (zoals wij dat ervaren) een eigenschap is.
Maar kijk uit dat je bewustzijn niet koppelt aan het geprogrammeerde oplossende vermogen, want dat is niet hetzelfde
Dat doe ik niet, ik bedoel dat het volgens mij dezelfde oorzaak als bewustzijn heeft. Mogelijk is juist ons probleem oplossend vermogen, samen met andere systemen in ons brein de oorzaak van bewustzijn.
[...]

Goed punt, maar ik denk dat bewustzijn een absolute must is voor A.I. Zonder bewustzijn, reageert een computer op zijn input op de manier waarop deze is geprogrammeerd en zou hij altijd voorspelbaar (wel complex voorspelbaar) gedrag vertonen. Als hij niet weet/begrijpt OF (let op, ik zeg geen waarom) hij een actie uitvoert, dan zal hij nooit "gedrag" in onze woorden kunnen vertonen.
Zoals gang-ster al zei, wellicht hebben wij objectief gezien geen bewustzijn. Zie Searle's Chinese kamer.
Natuurlijk is de vraag dan wederom hoe ver de A.I. wil doortrekken.
Inderdaad: willen we perse strong A.I.? Ik denk dus dat de kunstmatige intelligentie al zeer tevreden mag zijn zodra het weak A.I. creëert.

  • Aetje
  • Registratie: September 2001
  • Laatst online: 18-12-2025

Aetje

Troubleshooting met HAMERRR

Confusion schreef op 19 juni 2004 @ 11:33:
[...]

Onze hersenen zijn geen quantumcomputer; daarvoor is de temperatuur in het menselijk lichaam te hoog. De coherentietijd is in de hersenen te klein om quantummechanische effecten relevant te laten zijn.

Bovendien begrijp je denk ik de fundamentele oorsprong van mijn uitspraak niet: de demon van Descartes is een probleem dat altijd onberekenbaar zal blijven. Dat kunnen we net zo goed concluderen als we kunnen concluderen dat we bepaalde energieën nooit met deeltjesversnellers zullen halen: er zitten fundamentele fysische grenzen aan wat haalbaar is en als we meer willen, moeten we groter dan bijvoorbeeld de afmeting van de aarde of zelfs het zonnestelsel. Processoren kan je wel groter maken, maar de maximale processorcapaciteit per oppervlak kent een fundamentele fysische limiet, de schakelsnelheid van elementen kent een fundamentele fysische limiet en vervolgens heb je de lichtsnelheid nog als limiet voor informatieverplaatsing. Een quantumcomputer kan delen van het probleem oplossen, maar niet het hele probleem: ook een quantumcomputer is niet almachtig.
Dan ligt de oplossing bij een computer van technologie superieur aan quantum technologie. Ik denk toch dat je de capaciteiten van ons als scheppers onderschat. We leren nog, maar binnen afzienbare tijd kunnen we al een primitieve AI neerzetten. Dit zo'n slordige 50 jaar na de eerste electronische computer...

Wat ik echter niet goed begrijp is hoe de demon van descartes iets met AI te doen heeft. De demon van descartes zover ik kan lezen heeft betrekking op het onderscheid tussen virtueel (illusie) en reaal bewustzijn.

Forget your fears...
...and want to know more...


  • ErA
  • Registratie: Juli 2001
  • Laatst online: 19:06

ErA

Ik denk dat voordat we uberhaupt verder kunnen discusieren het van noodzaak is dat we weten wie wat precies bedoelt met AI

AI = ???

is het zoals velen zeggen iets met bewust zijn? Kortom is AI iets gelijk aan de mens? Zondat dat antwoord kom je niet veel verder

  • Confusion
  • Registratie: April 2001
  • Laatst online: 01-03-2024

Confusion

Fallen from grace

Topicstarter
Aetje schreef op 21 juni 2004 @ 10:53:
Dan ligt de oplossing bij een computer van technologie superieur aan quantum technologie.
Maar dan ga je er geheel ten onrechte van uit dat dergelijke technologie er is. Daarvoor is geen enkele aanwijzing. Elke redenering die je daarop baseert is vooralsnog zuivere fictie. En quantumcomputers zijn er voorlopig ook nog niet.
Ik denk toch dat je de capaciteiten van ons als scheppers onderschat.
Ik denk dat je de mogelijkheden die de natuur ons daarvoor biedt te rooskleurig inschat.
Wat ik echter niet goed begrijp is hoe de demon van descartes iets met AI te doen heeft. De demon van descartes zover ik kan lezen heeft betrekking op het onderscheid tussen virtueel (illusie) en reaal bewustzijn.
Een demon zou de wereld moeten simuleren. Als ik *vrije wil* heb, dan moet de demon bijvoorbeeld alle mogelijke vingerbewegingen en de gevolgen daarvan simuleren om precies de juiste input aan mijn hersenen te kunnen leveren op het moment dat ik mijn vinger op een bepaalde manier ga bewegen. Zelfs als de demon mij voorwend dat ik verlamd en blind op een strand lig en slechts één vinger door het zand kan bewegen, dan zijn het aantal vingerbewegingen, daarop volgende zandkorrelbewegingen en varianten van input die de demon paraat moet hebben al zo oneindig groot dat het schier onmogelijk is ze allemaal te simuleren en op te slaan. De demon van Descartes probeert mij te laten denken dat er een wereld bestaat die niet bestaat. Dat is een leuk gedachtenexperiment, maar een praktische onmogelijkheid, tenzij onze vrije wil beperkt is.

Wie trösten wir uns, die Mörder aller Mörder?

Pagina: 1