Problemen bij het namaken van een mens

Pagina: 1
Acties:
  • 110 views sinds 30-01-2008
  • Reageer

  • mrClass
  • Registratie: April 2002
  • Laatst online: 17-04-2025
Ik denk dat het mogelijk is om een mens compleet na te maken met de computer. Hierbij denk ik al snel aan implementatie met een neuraal netwerk. Een neuraal netwerk is een netwerk van neuronen zoals die zich ook in ons hoofd bevind. 1 Neuroon werkt als volgt:

- Een neuroon heeft meerdere ingangen
- Een neuroon heeft 1 uitgang

als de som van alle ingangen hoger is als een bepaalde drempel dan word de uitgang hoog.

Zo simpel is het.

Als men nu een absurt groot aantal neuronen aan elkaar verbind (ingangen op uitgangen) dan heb je een neuraal netwerk. Hier komt nog bij dat de aansturing van menselijke spieren de uitgangen zijn van neuronen en de zintuigelijke informatie de ingangen zijn.

Menselijk zintuigen en motorische functies kunnen met de huidige technieken al nagemaakt worden. (In welliswaar een groter formaat)

--- veel denktijd --

Zo nu heb ik een mens gemaakt met de computer.... Sja ging het allemaal maar zo makkelijk. Er zijn een aantal problemen.

1:
Een computer handeld zijn instructies sequentieel af. Terwijl alle neuronen in een neuraal netwerk altijd informatie verwerken. Het is dus parallel vs sequentieel.

Een probleem wat we dus moeten overkomen is het simuleren van paralleliteit over een sequentiele machine. Dit kan imho door het neurale netwerk aan de buitenkant uit te lezen, en dat vervolgens elke neuron aan zijn ingang vraagt wat de waarde op dat moment is. Je kijkt dus achteraf in het netwerk wat de waardes waren in een bepaald moment van de tijd. Dit leverd al snel problemen op als een neuroon zijn ingang zijn eigen uitgang is (via welke omweg dan ook). "Dan zal hij oneindig lang aan zichzelf vragen wat zijn ingang is" hmm probleem. Misschien zijn er standaard oplossingen of programeertalen?

2:
Computer zijn nog niet snel genoeg.

computers zijn inderdaad trage logge machines, ze doen ten eerste alles sequentieel en tot overmaat van ramp ook nog maar 1 instructie elke 3 miljardste seconde (bij 3 GHZ). We moeten ze dus in een enorme cluster van wereldwijde computers hangen. Ik zat zelf te denken aan een soort neurale SETI@home.

Wat ik nu met dit topic wil bereiken is kijken of er mensen zijn die hier aanvullende informatie of technieken/ideen of zelfs wel standaard oplossingen voor deelproblemen hebben.

En ik wil hier dus geen discussie over of het wel mogelijk is mbt gevoel, emotie, spiritualiteit/godsbeeld, vrije wil, etc.

[ Voor 1% gewijzigd door mrClass op 17-01-2005 15:34 . Reden: Ik zit te twijfelen of dit in W&L of in P&W hoort. Modjes moeten maar even beslissen. ]


Verwijderd

mrClass schreef op maandag 17 januari 2005 @ 15:30:
Zo nu heb ik een mens gemaakt met de computer.... Sja ging het allemaal maar zo makkelijk. Er zijn een aantal problemen.

1:
Een computer handeld zijn instructies sequentieel af. Terwijl alle neuronen in een neuraal netwerk altijd informatie verwerken. Het is dus parallel vs sequentieel.
Parallelle executie kun je simuleren met sequentiële.
2:
Computer zijn nog niet snel genoeg.
Dat is niet waar. Het probleem is eerder dat niemand software heeft kunnen bedenken die zo flexibel is als wij. Snellere computers zullen het makkelijker maken om zulke software te maken, maar er is op dit moment geen reden waarom het niet mogelijk is om een AI (zo heet dat) te maken. Neurale netwerken zijn echt niet zo geweldig als je nu denkt. Ik zou heel erg verbaasd zijn als ik een implementatie van een mens zou zien gebaseerd op neurale netwerken. Je begrip van neurale netwerken schiet ook tekort (je uitleg klopt namelijk niet (als in: is inconsistent met de rest van je verhaal )).

  • Standeman
  • Registratie: November 2000
  • Laatst online: 15:04

Standeman

Prutser 1e klasse

Nog een probleem. Datacapciteit is niet toereikend. Als je alle visuele / auditieve / tast / smaak/ geur informatie incl. bijkomende associaties e.d. wilt opslaan, heb je echt enorme hoeveelheden opslagcapaciteit nodig.

Je kan een hoop capaciteit besparen door een soort schiftings proces te bedenken en / of storage niet direct beschikbaar te maken (tape ofzo). Het vreemde aan mensen is dat ze een hoop "vergeten" maar vaak wel een gevoel er van overhouden.. Zoals "Kaas is vies", maar niet meer exact herinneren wanneer ze dat hebben besloten. Een dergelijk algortime lijkt mij uiterst complex, maar niet onmogelijk.
1: Een computer handeld zijn instructies sequentieel af. Terwijl alle neuronen in een neuraal netwerk altijd informatie verwerken. Het is dus parallel vs sequentieel.
Met meerdere cores ben je hier natuurlijk vanaf. Zie gewoon 1 neuron als 1 core.

[ Voor 26% gewijzigd door Standeman op 17-01-2005 16:25 ]

The ships hung in the sky in much the same way that bricks don’t.


  • MSalters
  • Registratie: Juni 2001
  • Laatst online: 10-12-2025
(jarig!)
Verwijderd schreef op maandag 17 januari 2005 @ 16:09:
[...]
Parallelle executie kun je simuleren met sequentiële.
[computers zijn nog niet snel genoeg]
Dat is niet waar.
Wel waar.

Om er toch een W&L nivo aan te geven ;) : Computers zijn nog niet snel genoeg om alle neuronen in parallel in realtime te simuleren; een enkel neuron is wel realtime te simuleren maar de mens heeft er simpelweg teveel.

Man hopes. Genius creates. Ralph Waldo Emerson
Never worry about theory as long as the machinery does what it's supposed to do. R. A. Heinlein


  • Yoozer
  • Registratie: Februari 2001
  • Laatst online: 20-01 22:02

Yoozer

minimoog

mrClass - ik denk dat een "HOWTO" niet serieus genoeg klinkt voor W&L (topictitel veranderen naar "Volledige emulatie van de mens" lijkt me slimmer), en omdat je vrijwel niks aan programmeervoorbeelden hebt lijkt P&W ook niet zo'n goede keus. Je krijgt sowieso dan eerst geruzie over welke taal je nodig hebt ;).

Overigens, ook al deze gelezen?

http://www.singinst.org/ (het deel over de Seed AI - ofwel, waarom hard werk doen als je een primitieve AI de vuile klusjes kan laten doen?)
http://marshallbrain.com/manna1.html (over een mogelijk resultaat)

[ Voor 13% gewijzigd door Yoozer op 17-01-2005 16:38 ]

teveel zooi, te weinig tijd


Verwijderd

MSalters schreef op maandag 17 januari 2005 @ 16:33:
[...]

Wel waar.

Om er toch een W&L nivo aan te geven ;) : Computers zijn nog niet snel genoeg om alle neuronen in parallel in realtime te simuleren; een enkel neuron is wel realtime te simuleren maar de mens heeft er simpelweg teveel.
Alle computers van de wereld zijn snel genoeg om een mens te simuleren. Een computer (zo'n ding die op je bureau staat, ook wel desktop genoemd), is te langzaam om het realtime te doen. Ik denk dat je zelf ook wel doorhad dat je het op twee verschillende manieren kon interpreteren(ook al noemt hij 3 GHz (wat betrekking heeft op 1 computer)). Ik koos deze interpretatie, omdat de TS een mens wilde maken en ik denk dat pure rekenkracht niet het probleem meer is tegenwoordig, maar meer het feit dat niemand weet wat hij met die rekenkracht moet doen. Er zijn trouwens wel methodes die een computer gegeven oneindig veel rekenkracht, een oneindige intelligentie geven, maar ja, dat is een theoretisch resultaat (en daar hebben we nu (nog) niets aan).

[ Voor 4% gewijzigd door Verwijderd op 17-01-2005 17:06 ]


  • Opi
  • Registratie: Maart 2002
  • Niet online

Opi

@ MSalters; Er zijn mij verhalen ter ore gekomen waarbij neurale netwerken hardwarematig geïmplementeerd zijn. Doet bij deze zich ook het probleem voor?
Verwijderd schreef op maandag 17 januari 2005 @ 16:51:Ik koos deze interpretatie, omdat de TS een mens wilde maken en ik denk dat pure rekenkracht niet het probleem meer is tegenwoordig, maar meer het feit dat niemand weet wat hij met die rekenkracht moet doen. Er zijn trouwens wel methodes die een computer gegeven oneindig veel rekenkracht, een oneindige intelligentie geven, maar ja, dat is een theoretisch resultaat (en daar hebben we nu (nog) niets aan).
Zou je mij voorbeelden van dergelijke methoden kunnen noemen en een eventuele referentie naar de gebruikte definitie van intelligentie. :) Adaptieve regelsystemen beschouw ik namelijk niet als intelligent.

Verwijderd

OpifexMaximus schreef op maandag 17 januari 2005 @ 17:24:
@ MSalters; Er zijn mij verhalen ter ore gekomen waarbij neurale netwerken hardwarematig geïmplementeerd zijn. Doet bij deze zich ook het probleem voor?
Het is mogelijk om binaire neurale netwerken te implementeren in RAM (zonder CPU); zo'n netwerk is waanzinnig snel, maar redelijk beperkt door het binaire karakter (ze worden vooral gebruikt voor optische patroonherkenning).

  • mrClass
  • Registratie: April 2002
  • Laatst online: 17-04-2025
Verwijderd schreef op maandag 17 januari 2005 @ 16:09:
Parallelle executie kun je simuleren met sequentiële.
Ik weet ook dat het mogelijk is. Een voorbeeld hiervan is HDL. Maar zijn hier ook standaard implementaties voor (voor simulatie van paralleliteit)?
Verwijderd schreef op maandag 17 januari 2005 @ 16:09:
Dat is niet waar. Het probleem is eerder dat niemand software heeft kunnen bedenken die zo flexibel is als wij. Snellere computers zullen het makkelijker maken om zulke software te maken, maar er is op dit moment geen reden waarom het niet mogelijk is om een AI (zo heet dat) te maken. Neurale netwerken zijn echt niet zo geweldig als je nu denkt. Ik zou heel erg verbaasd zijn als ik een implementatie van een mens zou zien gebaseerd op neurale netwerken. Je begrip van neurale netwerken schiet ook tekort (je uitleg klopt namelijk niet (als in: is inconsistent met de rest van je verhaal )).
hmm. Je zegt dat mijn uitleg niet klopt en inconsistent is? Kun je me ook vertellen op welk gebied deze uitleg tekort schiet, want ik ben er van overtuigd dat ik een goed begrip van neurale netwerken heb.
Ik vind neurale netwerken toch wel de sleutel tot menselijke intelligentie, anders zouden mensen ze ook niet hebben. Kun jij mij een argument geven waarom jij dat niet met mij eens bent?

  • mrClass
  • Registratie: April 2002
  • Laatst online: 17-04-2025
OpifexMaximus schreef op maandag 17 januari 2005 @ 17:24:
@ MSalters; Er zijn mij verhalen ter ore gekomen waarbij neurale netwerken hardwarematig geïmplementeerd zijn. Doet bij deze zich ook het probleem voor?
een menselijk neuraal netwerk vormt zelf ook nieuwe verbindingen, door neuronen o.a. te laten afsterven. Een harwarematige implementatie levert veel voordelen op voor snelheid, maar gaat ten koste van de flexibiliteit die nodig is voor het maken van nieuwe verbindingen.
OpifexMaximus schreef op maandag 17 januari 2005 @ 17:24:
Zou je mij voorbeelden van dergelijke methoden kunnen noemen en een eventuele referentie naar de gebruikte definitie van intelligentie. :) Adaptieve regelsystemen beschouw ik namelijk niet als intelligent.
Grappig. Ik denk niet dat we de discussie deze kant uit moeten voeren. Maar toch wil ik even zeggen dat ik denk dat intelligentie gevormd worden door een extreem complex adaptieve regelsysteem. Maar dat is een veronderstelling die ik nodig heb om een opbouwend topic hierover te kunnen starten.

[ Voor 1% gewijzigd door mrClass op 17-01-2005 18:16 . Reden: syntax bugje ]


Verwijderd

mrClass schreef op maandag 17 januari 2005 @ 18:15:
een menselijk neuraal netwerk vormt zelf ook nieuwe verbindingen, door neuronen o.a. te laten afsterven. Een harwarematige implementatie levert veel voordelen op voor snelheid, maar gaat ten koste van de flexibiliteit die nodig is voor het maken van nieuwe verbindingen.
Dit klopt maar ten dele. Als een baby geboren wordt, zijn z'n hersenen nog lang niet voltooid, de dendrietenbomen (de "inputs") goeien idd. nog steeds en maken synaptische verbindingen met de axonen (outputs) van andere neuronen, tot zover klopt het. Maar(!) zo dra als een kind echt begint te leren, neemt het aantal dendrieten drastisch af, er vindt een soort van natuurlijke selectie plaats waarbij dendrieten die zelden signaal voeren afsterven (er blijft nog altijd een gigantisch aantal verbindingen over, een neuron in een volwassen brein is verbonden met gemiddeld 15000 andere neuronen).

In zo'n binair netwerk waar in naar refereer in mijn vorige post is het geen probleem als de "wiring" van de rambouwstenen niet verandert (die wiring is herprogrammeerbaar maar dat gebeurt in de praktijk niet wanneer het netwerk in bedrijf is) in plaats daarvan verandert men simpelweg de "weging" van de inputs om te leren, net zoals bij een "gewoon" neuraal netwerk overigens (voor zover er sprake is van weging in een binair netwerk, beter maar minder algemeen zou "waardering" zijn).

[ Voor 3% gewijzigd door Verwijderd op 17-01-2005 19:03 ]


  • Opi
  • Registratie: Maart 2002
  • Niet online

Opi

Verwijderd schreef op maandag 17 januari 2005 @ 19:02:
In zo'n binair netwerk waar in naar refereer in mijn vorige post is het geen probleem als de "wiring" van de rambouwstenen niet verandert (die wiring is herprogrammeerbaar maar dat gebeurt in de praktijk niet wanneer het netwerk in bedrijf is) in plaats daarvan verandert men simpelweg de "weging" van de inputs om te leren, net zoals bij een "gewoon" neuraal netwerk overigens (voor zover er sprake is van weging in een binair netwerk, beter maar minder algemeen zou "waardering" zijn).
Over het algemeen veranderen de interconnecties inderdaad niet. Er zijn inderdaad technieken geopperd om het aantal neuronen uit te breiden of juist te minderen ('pruning').
mrClass schreef op maandag 17 januari 2005 @ 18:15:
Grappig. Ik denk niet dat we de discussie deze kant uit moeten voeren. Maar toch wil ik even zeggen dat ik denk dat intelligentie gevormd worden door een extreem complex adaptieve regelsysteem. Maar dat is een veronderstelling die ik nodig heb om een opbouwend topic hierover te kunnen starten.
Een neuraal netwerk is niet meer dan een mapping van inputs naar outputs die aangepast kan worden. Dit kan net zo goed met een klassieke lookup-table.

Verwijderd

OpifexMaximus schreef op maandag 17 januari 2005 @ 17:24:
Zou je mij voorbeelden van dergelijke methoden kunnen noemen en een eventuele referentie naar de gebruikte definitie van intelligentie. :) Adaptieve regelsystemen beschouw ik namelijk niet als intelligent.
Ik ook niet. Maar ik was iets te enthousiast (en ik geef toe dat ook dit niet altijd werkt):
http://www.idsia.ch/~marcus/ai/uaibook.htm

agiri.org probeert bovenstaand doel ook te halen, maar of ze genoeg geld bijelkaar krijgen om het wat te laten worden is de vraag. De mensen die eraan werken zijn imho wel capabel, maar of dat genoeg is :?

Ik denk dat iets wat High Level Cognition (zie: Hofstadter (zie Google)) gebruikt op zoveel mogelijk niveau's, wel net zo slim als ons zou kunnen zijn, maar ook dat schiet niet erg op (maar ja, dat heb je vaak in de wetenschap). (8>

Verwijderd

mrClass schreef op maandag 17 januari 2005 @ 18:10:
Ik weet ook dat het mogelijk is. Een voorbeeld hiervan is HDL. Maar zijn hier ook standaard implementaties voor (voor simulatie van paralleliteit)?
Als je weet hoe een computer werkt met een multi-user interface, dan kun je deze vraag ook beantwoorden.
hmm. Je zegt dat mijn uitleg niet klopt en inconsistent is?
Ik zei zoiets als: dat hij inconsistent is met betrekking tot je doel.
Kun je me ook vertellen op welk gebied deze uitleg tekort schiet, want ik ben er van overtuigd dat ik een goed begrip van neurale netwerken heb.
Natuurlijk
Ik vind neurale netwerken toch wel de sleutel tot menselijke intelligentie, anders zouden mensen ze ook niet hebben.
Als jij de hersenmassa van een mens definieert als neurale netwerken, dan ben ik het met je eens (triviaal). Maar dat zegt natuurlijk niet zo veel. De neurale structuur is, denk ik niet erg belangrijk voor intelligentie in het algemeen (het is alleen wat in onze habitat is geevolueerd).
Kun jij mij een argument geven waarom jij dat niet met mij eens bent?
Ja, maar andere mensen hebben dat al tig keer gedaan (zie onder):

Het komt er op neer dat jouw "menselijke intelligentie" nog geen eens de XOR functie kan implementeren. Aangezien bijna elke student die de definitie de eerste keer ziet het meteen begrijpt, impliceert dit dat jouw systeem nooit "menselijke intelligentie" kan implementeren. Bovendien zijn er hierdoor natuurlijk nog meer restricties. Het implementeren van een mens(of enige andere intelligentie (die als zodanig te herkennen valt) in een machine is een enorm lastig probleem. Het is niet iets wat je "even" op een forum bespreekt. Het is aardig dat je geinteresseerd bent in deze materie, maar daar heb je alleen niet zo veel aan. Doodstaren op neurale netwerken is verspilde moeite, vanwege verschillende redenen (die allemaal in de literatuur zijn terug te vinden).

http://uhavax.hartford.ed...al-networks-tutorial.html
Threshold Networks

Much early work in neural networks involved the perceptron. Devised by Rosenblatt, a perceptron is a single-layer network with a activation function given by

f(S) = { 1 if
S > T
{ 0 Otherwise

where T is some constant. Because it uses a threshold function, such a network is called a threshold network.

But even though it uses a nonlinear activation function, the perceptron still cannot implement the XOR function. That is, a perceptron is not capable of responding with an output of 1 whenever it is presented with input vectors (0,1) or (1,0), and responding with output 0 otherwise.

The impossibility proof is easy. There would have to be a weight vector T = (w1lXwl2) for which the scalar product net sum

S = W*X = w11*x1 + w21*x2

leads to an output of 1 for input (0,1) or (1,0), and 0 otherwise (see Table 2).

  • Zoijar
  • Registratie: September 2001
  • Niet online

Zoijar

Because he doesn't row...

Je moet een keer "shadows of the mind" lezen van Roger Penrose. Hier wordt aannemelijk gemaakt dat een mens niet te simuleren is op een turing machine (computer). Het denk process van een mens kan namelijk haast niet "berekenbaar" zijn. De stellingen en logica zijn redelijk ingewikkeld, er wordt bijvoorbeeld veel met de onvolledigheids stelling van Godel gewerkt. Er wordt ook een dialoog tussen menselijk maker, en "alleswetende" computer beschreven die zeer interessant is. Uiteindelijk lukt het de mens om de alleswetende computer vast te laten lopen in zijn logica, waardoor de computer aan neemt dat hij wel God moet zijn. Het berust voornamelijk op het feit dat de mens stellingen kent als waar, waarvan de alleswetende computer niet kan verifieren of die ook daadwerkelijk waar zijn (het godel argument) Maar dan een stuk verder doorgevoerd.

Merk op dat het dus niet om snelheid oid gaat, maar om een theoretische onmogelijkheid. Een neuraal net is volledig berekenbaar. Maar er zijn dus wel gegronde redenen om aan te nemen dat menselijk denken niet berekenbaar is. Later wordt er nog een link gelegd naar de QM, die mogelijk een verklaring biedt. Maar het blijft 'vaag', omdat er geen "bewijs" gegeven kan worden. In ieder geval een aanrader.

[ Voor 24% gewijzigd door Zoijar op 17-01-2005 20:51 ]


Verwijderd

Verwijderd schreef op maandag 17 januari 2005 @ 20:23:
Het komt er op neer dat jouw "menselijke intelligentie" nog geen eens de XOR functie kan implementeren. Aangezien bijna elke student die de definitie de eerste keer ziet het meteen begrijpt, impliceert dit dat jouw systeem nooit "menselijke intelligentie" kan implementeren.
Het Minsky-Perpet argument gaat alleen op voor preceptrons, er zijn tegenwoordig algoritmes bekend die zelfs een binair neuraal netwerk alle logische functies laten uitdrukken, zoals het Boolean-Like Training Algorithm (BLTA) van Gray en Michel. (Ik was in mijn studietijd zelf met BNNs in de weer, vandaar dat ik nogal op een oog blind ben op dit gebied ;))
Bovendien zijn er hierdoor natuurlijk nog meer restricties. Het implementeren van een mens(of enige andere intelligentie (die als zodanig te herkennen valt) in een machine is een enorm lastig probleem. Het is niet iets wat je "even" op een forum bespreekt.
Accoord, maar een leuke discussie over NNs is nooit weg.
Het is aardig dat je geinteresseerd bent in deze materie, maar daar heb je alleen niet zo veel aan. Doodstaren op neurale netwerken is verspilde moeite, vanwege verschillende redenen (die allemaal in de literatuur zijn terug te vinden).
Mwa, we zijn het jaar 1988 voorbij en ondertussen zijn er NN-algoritmes ontwikkeld waarvan Minsky en Perpet niet hadden durven dromen. NNs zijn nog steeds de meest veelbelovende techniek wat betreft artificiele perceptie. En wat betreft AI: ik ben nog van het oude stempel; "if it talks like a chicken and walks like a chicken, it's an artificial chicken", als het de Turing test doorstaat ben ik tevreden.

(In dit opzicht is het wel aardig dat Gödel gebruikt wordt om de Turing test aan te vallen, maar tevens om menselijke intelligentie te verdedigen/op een voetstuk te plaatsen.)

  • Zoijar
  • Registratie: September 2001
  • Niet online

Zoijar

Because he doesn't row...

Verwijderd schreef op maandag 17 januari 2005 @ 22:32:
(In dit opzicht is het wel aardig dat Gödel gebruikt wordt om de Turing test aan te vallen, maar tevens om menselijke intelligentie te verdedigen/op een voetstuk te plaatsen.)
Niet op een voetstuk plaatsen, maar proberen aan te tonen dat turing machines en menselijke intelligentie niet equivalent zijn. De "robots" van Penrose, zijn veel "slimmer" dan wij, wellicht is het zelfs onze mogelijkheid fouten te maken, die dat onderscheidt maakt.

Verwijderd

Verwijderd schreef op maandag 17 januari 2005 @ 22:32:
[...]


Het Minsky-Perpet argument gaat alleen op voor preceptrons, er zijn tegenwoordig algoritmes bekend die zelfs een binair neuraal netwerk alle logische functies laten uitdrukken, zoals het Boolean-Like Training Algorithm (BLTA) van Gray en Michel. (Ik was in mijn studietijd zelf met BNNs in de weer, vandaar dat ik nogal op een oog blind ben op dit gebied ;))
Ik zei toch niet dat geen enkel NN XOR kon representeren? Ik reageerde alleen op de TS zijn neurale netwerken (dat waren dus perceptrons). Dat had ik ook gequote.

Daaronder had ik het over o.a. recurrente neurale netwerken (die ik niet zo bij naam had genoemd). Anyway, ik denk dus dat neurale netwerken niet "the way to go" zijn. Als je een neuraal netwerk kunt tonen dat incrementeel werkt (ik stop er een paar nodes bij en het wordt ook echt "slimmer"(met zinvolle definitie slimmer ), dan ben ik onder de indruk. Die paar nodes moet natuurlijk te generaliseren zijn naar n, etc.

Verwijderd

Zoijar schreef op maandag 17 januari 2005 @ 22:37:
Niet op een voetstuk plaatsen, maar proberen aan te tonen dat turing machines en menselijke intelligentie niet equivalent zijn. De "robots" van Penrose, zijn veel "slimmer" dan wij, wellicht is het zelfs onze mogelijkheid fouten te maken, die dat onderscheidt maakt.
Dat begrijp ik, maar dat houdt niet in dat een Turing machine geen menselijke intelligentie zo goed zou kunnen simuleren dat (letterlijk) geen mens het verschil meer kan opmerken. Net zoals we randomness voldoende goed kunnen simuleren voor zowat alle praktische doeleinden (als we maar genoeg rekentijd besteden aan het genereren van die pseudo-randoms). Als de Turing machine zo goed wordt in het ons voorspiegelen dat ze intelligent is dat we haar geloven, dan geloof ik haar ook ;)

Mijn eigenlijke argument betrof trouwens de onvolledigheidsstelling van Gödel: als je die gebruikt om een positief resultaat van een Turing test aan te vechten, dan mag je hem niet gebruiken in bewijzen betreffende menselijke intelligentie, anders sleep ik die mens voor een Turing test en vecht met Gödel zijn intelligentie aan.

Verwijderd

Verwijderd schreef op maandag 17 januari 2005 @ 22:32:
[...]
(In dit opzicht is het wel aardig dat Gödel gebruikt wordt om de Turing test aan te vallen, maar tevens om menselijke intelligentie te verdedigen/op een voetstuk te plaatsen.)
Een voldoende intelligent systeem kan (met een aantal kleine aannames over de omgeving) wel zijn eigen compleetheid bewijzen, maar hij moet hierbij dan de omgeving gebruiken om zijn berekeningen uit te voeren. De omgeving kan nl. meer states representeren dan hijzelf. De omgeving kan ook een computer zijn, of whatever (voor de duidelijkheid).

Verwijderd

Verwijderd schreef op maandag 17 januari 2005 @ 22:49:
Ik zei toch niet dat geen enkel NN XOR kon representeren? Ik reageerde alleen op de TS zijn neurale netwerken (dat waren dus perceptrons). Dat had ik ook gequote.
Accoord, maar je post wekte de induk dat NNs een compleet doodlopend spoor zijn, dat wilde ik alleen bestrijden.
Daaronder had ik het over o.a. recurrente neurale netwerken (die ik niet zo bij naam had genoemd). Anyway, ik denk dus dat neurale netwerken niet "the way to go" zijn. Als je een neuraal netwerk kunt tonen dat incrementeel werkt (ik stop er een paar nodes bij en het wordt ook echt "slimmer"(met zinvolle definitie slimmer ), dan ben ik onder de indruk. Die paar nodes moet natuurlijk te generaliseren zijn naar n, etc.
Als jij mij een biologisch brein laat zien waarvoor het zelfde geldt, dan ben ik nog meer onder de indruk. (Dan geldt namelijk het oude adagio "denken moet je overlaten aan paarden, want die hebben meer hersenen".)

Verwijderd

Er staat hier een link naar Penrose.
Ik heb het hele stuk gelezen en ik vond het erg amusant om te lezen.
http://www.fortunecity.com/emachines/e11/86/loglimit.html

Het zegt alleen volgens mij niet dat een computer een minder krachtig systeem is dan een mens, aangezien random getallen ook gebruikt kunnen worden om "creativiteit", tenminste theoretisch, te simuleren.

  • Zoijar
  • Registratie: September 2001
  • Niet online

Zoijar

Because he doesn't row...

Verwijderd schreef op maandag 17 januari 2005 @ 22:53:
Mijn eigenlijke argument betrof trouwens de onvolledigheidsstelling van Gödel: als je die gebruikt om een positief resultaat van een Turing test aan te vechten, dan mag je hem niet gebruiken in bewijzen betreffende menselijke intelligentie, anders sleep ik die mens voor een Turing test en vecht met Gödel zijn intelligentie aan.
Dat is niet helemaal wat er gebeurt; aangezien wij de specificaties van de robot hebben, kunnen wij een stelling produceren waarvan wij weten dat deze voor de robot waar moet zijn. Dus niet eens voor ons waar, maar voor de robot. En tegelijk kunnen we aantonen dat de robot de waarheid van deze stelling nooit positief zal kunnen bevestigen. De robot kan hetzelfde bij ons doen, als menselijke intelligentie berekenbaar is. De robot weet zelf ook dat dit kan. Als menselijke intelligentie berekenbaar is, dan is het godel argument een nul argument om 'ai' op te laten falen. Dat ben ik met je eens, omdat je dan hogere eisen stelt aan de ai dan aan de mens, en er nu juist equivalentie aangetoond moest worden. Maar we weten het niet, en ik denk ook misschien dat we het nooit zullen (kunnen) weten... isn't it ironic :) Maar misschien dat we ooit in de toekomst een nieuw soort van quantum achtige berekeningen kunnen uitvoeren. En dan niet alleen op de huidige denkwijze van het quantum bit, daar kunnen naar mijn weten alleen een iets grotere klasse problemen in acceptabele tijd mee worden opgelost, maar misschien een echte oracle machine.

  • MSalters
  • Registratie: Juni 2001
  • Laatst online: 10-12-2025
(jarig!)
Verwijderd schreef op maandag 17 januari 2005 @ 16:51:
[...]Alle computers van de wereld zijn snel genoeg om een mens te simuleren.
Waarschijnlijk wel, maar dan loop je weer tegen de interconnect aan. Het voordeel van onze neuronen is dat ze zoveel processing power in een klein volume hebben, en dat daardoor de communicatietijden beperkt blijven. En natuurlijk allemaal watergekoeld :+

Man hopes. Genius creates. Ralph Waldo Emerson
Never worry about theory as long as the machinery does what it's supposed to do. R. A. Heinlein


  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Verwijderd schreef op maandag 17 januari 2005 @ 23:27:
Het zegt alleen volgens mij niet dat een computer een minder krachtig systeem is dan een mens, aangezien random getallen ook gebruikt kunnen worden om "creativiteit", tenminste theoretisch, te simuleren.
Wat hij (Penrose) zegt is dat creativiteit misschien op andere wijze gesimuleerd kan worden, misschien met quantum mechanica. De auteur van het artikel denkt (en hij heeft dat naar eigen zeggen ook bestudeerd) gelooft niet dat het mogelijk is om alle problemen te vertalen in mathematische vraagstukken. Aangezien een computer in feite een rekenmachine is, impliceert dit dat niet alle problemen door een computer opgelost kunnen worden. Mits er een hele andere mogelijkheid komt om problemen op te lossen, bijvoorbeeld door het gebruik van logica of nog andere systemen. Het probleem is dat we bij mensen niet weten hoe gedachten-processen werken, en hoe mensen problemen oplossen. Heel lang is gedacht dat mensen 'bayesiaanse' algoritmen toepassen, maar sinds 1990 is dat idee flink achterhaald door onderzoek naar hoe mensen hypothesen toetsen, en problemen oplossen. De mens is volgens deze lijn studies *geen* rationele computer, die met allerlei statistische en wiskundige methoden tot een overtuiging komt.

Verwijderd

Christiaan schreef op dinsdag 18 januari 2005 @ 11:36:
De mens is volgens deze lijn studies *geen* rationele computer, die met allerlei statistische en wiskundige methoden tot een overtuiging komt.
Hmm... nou en? Ik kan een belachelijk eenvoudig computer programmaatje schrijven waarmee ik deze (en alleen deze, en precies deze) dialoog kan voeren:

> Hi computer!
>> Hi bas!
> Wat heb je liever: 100% kans op 9.99 euro, of 0.001% kans op 1.000.000 euro?
>> Nou! Geef mij de 9 euro maar! Ik heb altijd pech!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Verwijderd schreef op dinsdag 18 januari 2005 @ 12:55:
Hmm... nou en? Ik kan een belachelijk eenvoudig computer programmaatje schrijven waarmee ik deze (en alleen deze, en precies deze) dialoog kan voeren:

> Hi computer!
>> Hi bas!
> Wat heb je liever: 100% kans op 9.99 euro, of 0.001% kans op 1.000.000 euro?
>> Nou! Geef mij de 9 euro maar! Ik heb altijd pech!
Je kunt natuurlijk best simuleren hoe een mens problemen oplost, dus dat je met een volstrekt ander 'algoritme' tot hetzelfde resultaat komt. Maar dat vereist, in het geval van een computer, wel dat die problemen te vertalen zijn naar wiskunde, en dat is maar de vraag. Het voorbeeld dat jij geeft is per definitie een wiskundig probleem. Een niet wiskundig probleem is of je ervoor kiest je relatie met persoon X wel of niet voort te zetten, of welke studie je moet kiezen, enzovoorts.

Verwijderd

Ik geloof niet dat je m'n voorbeeldje begreep.
Christiaan schreef op dinsdag 18 januari 2005 @ 13:26:
Maar dat vereist, in het geval van een computer, wel dat die problemen te vertalen zijn naar wiskunde, en dat is maar de vraag.
Nee dat is niet waar. De manier van reageren (!) op het probleem moet te vertalen zijn naar wiskunde (ik zeg liever logica, maar soit), en aangezien mensen op problemen reageren volgens het neurale netwerk in hun hoofd, en iig in principe dat neurale netwerk te simmen is op een computer, kunnen computers (of computerprogramma's: zullen we 'agenten' zeggen?) in principe, net zo op problemen reageren als mensen.

Ja, en ik zeg expres 'reageren' ipv 'oplossen'... Want heel veel 'problemen' die mensen hebben met hun baan of hun relatie whatever zijn helemaal geen problemen met oplossingen in wiskundige zin, en suggereren dat ze dat wel zijn of zouden moeten zijn, wil een computer er iets mee kunnen, is perfide.

Als je zo redeneert...

1. Mensen lossen "problemen" op met hun relatie. (aanname)
2. Computers kunnen alleen wiskundige problemen oplossen. (aanname)
3. Relatieproblemen zijn geen wiskundige problemen. (aanname)
4. Computers kunnen geen relatieproblemen oplossen. (2 + 3)
5. Computers kunnen niet denken zoals mensen. (4 + 1)

... haal je twee niveau's door elkaar (het mechanische/neuronale/computationele en het behaviouristische) door "probleem oplossen" in 1 en 2 aan elkaar gelijk te stellen.
Het voorbeeld dat jij geeft is per definitie een wiskundig probleem.
Welnee. Maar goed, kijk eens goed naar de 'oplossing'? Komt de computer tot een rationele 'oplossing'? Door alleen gebruik te maken van z'n processorlogica? (Hint: Nee. Ja.)

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Verwijderd schreef op dinsdag 18 januari 2005 @ 13:56:
Nee dat is niet waar. De manier van reageren (!) op het probleem moet te vertalen zijn naar wiskunde (ik zeg liever logica, maar soit), en aangezien mensen op problemen reageren volgens het neurale netwerk in hun hoofd, en iig in principe dat neurale netwerk te simmen is op een computer, kunnen computers (of computerprogramma's: zullen we 'agenten' zeggen?) in principe, net zo op problemen reageren als mensen
Ja, en dat bovenstaande is nu precies de essentie van mijn punt. We weten niet of het menselijk brein echt wel werkt zoals een neuraal netwerk dat doet, als we het met processoren simuleren in een computer. Het is een theorie over hoe het brein zijn functies verricht, maar dat is evengoed een aanname. Je kunt het nog verder naar beneden trekken en zeggen dat als het brein voldoet aan de wetten der natuurkunde, het dus te vertalen is naar wiskundige statements. Maar het is maar de vraag of een dergelijke deductie bij inductie op basis van de afgeleiden bouwstenen tot hetzelfde eindresultaat leidt.

[ Voor 16% gewijzigd door Christiaan op 18-01-2005 14:33 ]


Verwijderd

Christiaan schreef op dinsdag 18 januari 2005 @ 14:31:We weten niet of het menselijk brein echt wel werkt zoals een neuraal netwerk dat doet, als we het met processoren simuleren in een computer.
Sure, maar *dat* het brein niet zo werkt wilde je aantonen door te wijzen op onwiskundige, menselijke "problemen" als studiekeuze e.d.

Maar zoals ik zei, je maakt een niveau-fout als je die menselijke problemen vergelijkt met de processen die ten grondslag liggen aan de werking van een computer.

Dus nu blijft er alleen een "we weten het niet zeker -- misschien is het anders" pseudo-argument over, en ik dacht dat Penrose jij (?) wel een interessantere claim zou willen maken.

edit:
"Penrose" -> "jij (?)"

[ Voor 5% gewijzigd door Verwijderd op 18-01-2005 14:48 ]


Verwijderd

Christiaan schreef op dinsdag 18 januari 2005 @ 13:26:
[...]


Je kunt natuurlijk best simuleren hoe een mens problemen oplost, dus dat je met een volstrekt ander 'algoritme' tot hetzelfde resultaat komt. Maar dat vereist, in het geval van een computer, wel dat die problemen te vertalen zijn naar wiskunde, en dat is maar de vraag. Het voorbeeld dat jij geeft is per definitie een wiskundig probleem. Een niet wiskundig probleem is of je ervoor kiest je relatie met persoon X wel of niet voort te zetten, of welke studie je moet kiezen, enzovoorts.
Een computer uitrusten met een echte random-number generator kan volgens mij gewoon. Daar is niets wiskundigs meer aan (althans niet meer dan bij ons).

  • Zoijar
  • Registratie: September 2001
  • Niet online

Zoijar

Because he doesn't row...

Verwijderd schreef op dinsdag 18 januari 2005 @ 15:08:
Een computer uitrusten met een echte random-number generator kan volgens mij gewoon. Daar is niets wiskundigs meer aan (althans niet meer dan bij ons).
Een random number generator is een compleet berekenbaar process, en voegt dus werkelijk niets toe. Pernose argumenteert in zijn boek, dat zelf een wezenlijk random process, zoals randomness gebasseerd op quantum factoren, niets toevoegt. (iets is dan alleen met hoge kans waar, en dus nooit onweerlegbaar waar. Zelfs als je een "oracle machine" maakt, ie. een turing machine met een random input, die zo wordt opgezet dat deze input ervoor zorgt dat het probleem wordt opgelost, dan moet je nog steeds die input randomizen. Het is denkbaar, hoewel niet waarschijnlijk, dat je nooit de juiste input zal randomizen. Ook dan heb je dus nog steeds geen oplossing voor bv., het halting probleem, want hoe lang moet je doorgaan en wachten tot je de juiste input hebt. In het oneindige heb je met kans 1 de juiste input; maar in het oneindige halt de machine nou juist net niet, en ben je terug bij af)
Verwijderd schreef op dinsdag 18 januari 2005 @ 14:43:
Dus nu blijft er alleen een "we weten het niet zeker -- misschien is het anders" pseudo-argument over, en ik dacht dat Penrose jij (?) wel een interessantere claim zou willen maken.
Het is een beetje kort door de bocht, om een boek van 500 blz in een paar zinnen samen te vatten, en dan neer te halen. Alle punten die tot nu toe zijn aangehaald, worden uitvoerig besproken en van verschillende kanten bekeken. Ik zou nu wel al die dingen over kunnen gaan typen; maar het is beter als je echt interesse hebt om het boek eens op te zoeken. Penrose claimed overigens niet dat wat hij beschrijft "waar" is. Er worden vier "kampen van gedachte" beschreven, en hij maakt aannemelijk (op een sterke manier) waarom hij voor een bepaald kamp kiest, en waarom volgens hem de andere kampen niet juist/volledig zijn. Kort gezegd gaat het om min of meer de volgende 4:

a) strong AI -> een computer kan bewust zijn en de mens evenaren (als het zich gedraagt als een kip, dan is het ook een kip)
b) weak AI -> een computer kan bewustzijn perfect simuleren, maar dan nog is hij niet gelijk aan het fysieke bewustzijn (Als het zich gedraagt als een kip, dan lijkt het misschien exact op een kip, maar hoeft/is het nog geen kip te zijn)
c) een computer kan het fysieke bewustzijn zelfs nooit simuleren, maar het bewustzijn is wel gebasseerd op onderliggende "regels" en wisselwerkingen. Hoewel die dus niet berekenbaar zijn.
d) het bewustzijn is niet te verklaren met "regels". (eventueel alleen door de wil van god oid)

(a) wordt redelijk aannemelijk weerlegd, (d) kan haast niet worden aangenomen, want dan zetten we de wetenschap overboord, en heeft het dus geen nut om ook maar te beginnen, (b) en (c) gaat de discussie voornamelijk over. Penrose is dacht ik vnl voorstander van (c), met het oog op niet berekenbare QM.

Nogmaals, dit is kort en samengevat...

[ Voor 14% gewijzigd door Zoijar op 18-01-2005 17:09 ]


  • mrClass
  • Registratie: April 2002
  • Laatst online: 17-04-2025
Verwijderd schreef op maandag 17 januari 2005 @ 19:02:
[...]


Dit klopt maar ten dele. Als een baby geboren wordt, zijn z'n hersenen nog lang niet voltooid, de dendrietenbomen (de "inputs") goeien idd. nog steeds en maken synaptische verbindingen met de axonen (outputs) van andere neuronen, tot zover klopt het. Maar(!) zo dra als een kind echt begint te leren, neemt het aantal dendrieten drastisch af, er vindt een soort van natuurlijke selectie plaats waarbij dendrieten die zelden signaal voeren afsterven (er blijft nog altijd een gigantisch aantal verbindingen over, een neuron in een volwassen brein is verbonden met gemiddeld 15000 andere neuronen).

In zo'n binair netwerk waar in naar refereer in mijn vorige post is het geen probleem als de "wiring" van de rambouwstenen niet verandert (die wiring is herprogrammeerbaar maar dat gebeurt in de praktijk niet wanneer het netwerk in bedrijf is) in plaats daarvan verandert men simpelweg de "weging" van de inputs om te leren, net zoals bij een "gewoon" neuraal netwerk overigens (voor zover er sprake is van weging in een binair netwerk, beter maar minder algemeen zou "waardering" zijn).
Om een mens te maken mbv een neuraal netwerk heb je wel degelijk alle stappen nodig. Het is dus ook van groot belang dat het maken van nieuwe synaptische verbindingen ook geimplementeerd word, aangezien dit vrijwel zeker bijdraagt aan de ontwikkeling van een peuter (zoals in jou verhaal).

Het is zelfs zo dat er nieuwe neuronen aangemaakt worden (Die uiteraard ook weer nieuwe synaptische verbindingen vormen). In deze heb jij dus ongelijk:
Als baby’s worden geboren worden hebben zij al bijna alle neurons die zij ooit zullen krijgen, dat zijn er meer dan 100 miljard. Hoewel er onderzoek is dat heeft aangetoond dat sommige neuronen ontwikkeld worden na de geboorte tot in de volwassenheid (Shonkoff & Phillips, 2000)
bron

  • mrClass
  • Registratie: April 2002
  • Laatst online: 17-04-2025
OpifexMaximus schreef op maandag 17 januari 2005 @ 19:35:

Een neuraal netwerk is niet meer dan een mapping van inputs naar outputs die aangepast kan worden. Dit kan net zo goed met een klassieke lookup-table.
Dat is niet waar, er worden wel degelijk nieuwe verbindingen gevormt, en hierdoor is het neurale netwerk zelf, complexer dan een simpele lookup table.

"Het brein is plastisch. Gebieden die normaal
worden gebruikt voor visuele input, blijken
bij blinden inderdaad ook auditieve informatie
te verwerken."
bron

Het is dus zelfs zo dat van sommige mensen die ledematen zijn kwijtgeraakt andere synaptsche verbindingen vormen naar ander huisweefsel, waardoor de functie van receptoren op het ledemaat gezeten hebben, overgenomen worden door andere receptoren.

Verwijderd

Zoijar schreef op dinsdag 18 januari 2005 @ 17:01:
(a) wordt redelijk aannemelijk weerlegd,
Volgens mij is het verschil tussen a) en b) enkel ontologisch/filosofisch. Penrose weerlegt door het hanteren van Gödel zowel a) als b) want een "uncomputable" intelligentie valt noch te simuleren, noch perfect te imiteren dmv. berekeningen. In "The Mystery of Consciousness" valt Searle (die van de Chinese Room) Penrose daarop aan, hij argumenteert dat Penrose's definitie van bewustzijn onwerkbaar is: zelfs als alle permisses die Penrose maakt correct zijn, dan nog kan hij er geen verklaring voor bewustzijn uit produceren maar enkel "we weten het niet" statements; Penrose heeft het dus over een ander soort bewustzijn dan de (andere) AI-onderzoekers.

Hoewel ik het totaal niet met de positie die Searle inneemt met de Chinese Room eens ben, vind ik dat hij Penrose hier aardig afstraft. (Over de Chinese Room: ook al begrijpt de klerk geen bal van het Chinees waarop hij antwoordt, dan wil dat nog niet zeggen dat er geen bewustzijn aanwezig is, de klerk is op dit moment maar een medium -"hardware"- waarin het bewuste proces "draait"; je zou ook niet beweren dat hersenen bewust zijn, maar de mens die die hersenen bezit wel).

[ Voor 4% gewijzigd door Verwijderd op 18-01-2005 18:38 ]


  • Confusion
  • Registratie: April 2001
  • Laatst online: 01-03-2024

Confusion

Fallen from grace

Christiaan schreef op dinsdag 18 januari 2005 @ 11:36:
Wat hij (Penrose) zegt is dat creativiteit misschien op andere wijze gesimuleerd kan worden, misschien met quantum mechanica.
Vooralsnog wijst alles erop dat de quantummechanica niet relevant is voor een macroscopisch systeem op kamertemperatuur, zoals de hersenen. Het is er te warm en er is teveel interactie met de omgeving. Volgens dit argument zou een quantumcomputer trouwens wel bewust kunnen worden.

Overigens klopt het argument betreffende Gödel's onvolledigheidsstelling niet, eenvoudigweg omdat een computer die stelling kan afleiden en toepassen en daarmee tot precies dezelfde resultaten zou komen als wij.
Christiaan schreef op dinsdag 18 januari 2005 @ 14:31:
als het brein voldoet aan de wetten der natuurkunde
Sinds wanneer is daar enige twijfel over? Waarom zouden nu net onze hersenen, als enige systeem in het hele heelal, niet voldoen aan de natuurwetten? Dat is toch je reinste antropocentrisme?
Verwijderd schreef op dinsdag 18 januari 2005 @ 18:19:
(Over de Chinese Room: ook al begrijpt de klerk geen bal van het Chinees waarop hij antwoordt, dan wil dat nog niet zeggen dat er geen bewustzijn aanwezig is, de klerk is op dit moment maar een medium -"hardware"- waarin het bewuste proces "draait"
De vraag is niet of er bewustzijn aanwezig is. De vraag is of er begrip is. Wat is dan hetgeen dat het Chinees begrijpt, de klerk met zijn briefjes? Dat vind ik vrij absurd, om aan een klerk geen begrip toe te kennen, maar een klerk met wat stukjes papier wel. Wat als hij alles uit zijn hoofd leert? Dat is een tegenwerping die Searle in het essay zelf behandelt: al stop je de klerk in een robot, met cameras om de tekens te 'lezen' en laat je hem intern allerlei schakelaars omzetten om het complete menselijke neurologische proces te simuleren, dan nog is er geen begrip in dat hele systeem.

Wie trösten wir uns, die Mörder aller Mörder?


Verwijderd

MSalters schreef op maandag 17 januari 2005 @ 16:33:
[...]

Wel waar.

Om er toch een W&L nivo aan te geven ;) : Computers zijn nog niet snel genoeg om alle neuronen in parallel in realtime te simuleren; een enkel neuron is wel realtime te simuleren maar de mens heeft er simpelweg teveel.
Dat klopt niet, als ik me niet vergis. De signaalsnelheid binnen een computer is zoveel sneller dan de signaalsnelheid in de hersenen dat de computer hiermee de dataverwerking die de hersenen door de geoptimaliseerde structuur aankan makkelijk gecompenseerd kan worden. Met andere woorden: de computer is zeker wel snel genoeg tegenwoordig.

Verwijderd

Zoijar schreef op dinsdag 18 januari 2005 @ 17:01:
[...]

Een random number generator is een compleet berekenbaar process, en voegt dus werkelijk niets toe.
Ik zei toch echt "een echte random number generator" (oftewel zo'n hardware apparaaat dat achtergrondruis meet). Je kunt alleen pseudo-random numbers maken met een standaard CPU (ja, ik weet dat sommige een ingebouwde hebben die dit met quantumstates doen).

Het verhaal over de quantum effecten klinkt leuk, maar heeft hier niets mee te maken.

Onbeslibaarheid is ook zoiets wat er niets mee te maken heeft. Wij zijn net zo goed een "slachtoffer" hiervan.

Wat ik wilde zeggen is dat het eigenlijk de vraag is of als je alle algoritmen (dus ook de probabilistische) enumereert die mogelijk zijn, en uitvoert, er dan een bij zit die hetzelfde doet als een mens.

Dit impliceert de vraag: is het systeem mens krachtiger dan het systeem computer? Wij werken redelijk analoog, computers digitaal (in het algemeen). Ik weet niet of analoge systemen krachtiger zijn dan digitale. Met krachtiger bedoel ik dat je er dingen mee kunt berekenen, die niet met een digitaal systeem kunnen worden berekend. Er zijn misschien ook nog wel andere redenen, maar ook analoge systemen zouden we kunnen maken. Analoge systemen kunnen overigens (dacht ik (ben benieuwd naar een tegenvoorbeeld))altijd benaderd worden tot willekeurige nauwkeurigheid.

Verwijderd

Confusion schreef op dinsdag 18 januari 2005 @ 19:37:
De vraag is niet of er bewustzijn aanwezig is. De vraag is of er begrip is. Wat is dan hetgeen dat het Chinees begrijpt, de klerk met zijn briefjes? Dat vind ik vrij absurd, om aan een klerk geen begrip toe te kennen, maar een klerk met wat stukjes papier wel. Wat als hij alles uit zijn hoofd leert? Dat is een tegenwerping die Searle in het essay zelf behandelt: al stop je de klerk in een robot, met cameras om de tekens te 'lezen' en laat je hem intern allerlei schakelaars omzetten om het complete menselijke neurologische proces te simuleren, dan nog is er geen begrip in dat hele systeem.
De onderliggende vraag is natuurlijk wel of er bewustzijn aanwezig is, want zonder bewustzijn is er geen begrip mogelijk. De vraag "wat als hij alles uit zijn hoofd leert?" is naar mijn idee veel interessanter dan dat Searle ze wil doen voorkomen; want wat gebeurt er in werkelijkheid als die klerk de "instructies Chinees" uit zijn hoofd leert en ze dagelijks gebruikt? Hij leert (mi.) de taal.

Als we dus een systeem bouwen dat sensorisch, qua geheugencapaciteit en qua patroonherkennend vermogen krachtig genoeg is, waarom zou dat kunstmatige systeem dan geen associaties (semantische koppelingen) tussen de wereld en de klanken+syntax van het Chinees kunnen leggen en een menselijk zenuwstelsel wel? Als zo'n kunstmatig systeem dat doet, als ik het (in het Chinees) kan vragen wat de kleur van een willekeurig zichtbaar voorwerp is en ik krijg een correct antwoord, dan veronderstel ik dat dat systeem begrip en daarmee ook bewustzijn toont (en interesseert het me verder weinig of we dat voor elkaar krijgen door neurologische processen te simuleren of op een andere manier).

[ Voor 4% gewijzigd door Verwijderd op 19-01-2005 00:03 . Reden: brein -> zenuwstelsel ]


  • Opi
  • Registratie: Maart 2002
  • Niet online

Opi

mrClass schreef op dinsdag 18 januari 2005 @ 17:40:
Dat is niet waar, er worden wel degelijk nieuwe verbindingen gevormt, en hierdoor is het neurale netwerk zelf, complexer dan een simpele lookup table.
Nieuwe verbindingen kunnen gevormd worden, maar zijn zeker niet noodzakelijk. Een look-up table is in principe niet complex en een neuraal netwerk ook niet; er wordt wat ingestopt en er komt wat uit. Eventueel is het systeem geen Markov Decision Process, maar een Partial Observable Markov Decision Process en is de uitkomt niet alleen afhankelijk van de momentane input maar ook van vorige inputs.
"Het brein is plastisch. Gebieden die normaal
worden gebruikt voor visuele input, blijken
bij blinden inderdaad ook auditieve informatie
te verwerken."
bron
Je gaat nu het brein met een ANN vergelijken.

  • mrClass
  • Registratie: April 2002
  • Laatst online: 17-04-2025
OpifexMaximus schreef op woensdag 19 januari 2005 @ 00:24:

Nieuwe verbindingen kunnen gevormd worden, maar zijn zeker niet noodzakelijk.
Dit vind ik toch wel een vrij gewaagde uitspraak. De wetenschap heeft nog helemaal niet kunnen uitsluiten dat voor het functioneren van een mens nieuwe synaptische verbindingen niet noodzakelijk zijn. Ik vind daarom niet dat je ze zonder meer over boor kunt gooien. Met een beetje mazzel verklaard dit de werking van NN's.
OpifexMaximus schreef op woensdag 19 januari 2005 @ 00:24:
Je gaat nu het brein met een ANN vergelijken.
Dat is precies wat ik in mijn start post deed. Ik wil aan de hand van de biologische wetenschap een Artificieel Neuraal Netwerk creeren.

  • mrClass
  • Registratie: April 2002
  • Laatst online: 17-04-2025
Verwijderd schreef op dinsdag 18 januari 2005 @ 23:53:
Als zo'n kunstmatig systeem dat doet, als ik het (in het Chinees) kan vragen wat de kleur van een willekeurig zichtbaar voorwerp is en ik krijg een correct antwoord, dan veronderstel ik dat dat systeem begrip en daarmee ook bewustzijn toont (en interesseert het me verder weinig of we dat voor elkaar krijgen door neurologische processen te simuleren of op een andere manier).
Inderdaad, een bewustzijn hoeft niet zo vaag te zijn als veel mensen denken. Het kan simpelweg een product zijn van ons compexe neurale netwerk. Maar ik denk aan de andere kant toch wel dat de sleutel ligt in het simuleren van neurologische processen. Simpelweg om het feit dat mensen anders wel op een andere manier gewerkt hadden. Ik realiseer me natuurlijk dat dit een gevaarlijke uitspraak is, aangezien we helemaal nog niet zeker weten of mensen volledig op basis van neurale netwerken werken. Maar vooralsnog ga ik hiervan uit om dit topic te kunnen hebben starten en er nog geen aanwijzingen zijn die het tegendeel beweren.
Confusion schreef op dinsdag 18 januari 2005 @ 19:37:
Vooralsnog wijst alles erop dat de quantummechanica niet relevant is voor een macroscopisch systeem op kamertemperatuur, zoals de hersenen. Het is er te warm en er is teveel interactie met de omgeving. Volgens dit argument zou een quantumcomputer trouwens wel bewust kunnen worden.
Dit vind ik een heel sterk argument die mijn stelling verdedigt, aangezien ik vaak de onvoorspelbaarheid van de QM als tegenargument voor oa mijn deterministische opvattingen krijg. Heb je hier nog ondersteunde informatie over?

[ Voor 23% gewijzigd door mrClass op 19-01-2005 01:44 ]


  • Confusion
  • Registratie: April 2001
  • Laatst online: 01-03-2024

Confusion

Fallen from grace

mrClass schreef op woensdag 19 januari 2005 @ 01:39:
Dit vind ik een heel sterk argument die mijn stelling verdedigt, aangezien ik vaak de onvoorspelbaarheid van de QM als tegenargument voor oa mijn deterministische opvattingen krijg. Heb je hier nog ondersteunde informatie over?
http://arxiv.org/PS_cache/quant-ph/pdf/9907/9907009.pdf
(dit artikel is sindsdien 38 keer geciteerd, maar geen van de citerende artikelen kan ik online vinden. Sommigen citerende artikelen zijn kritieken die tot andere conclusies komen. Niettemin is dit vanuit een quantummechanisch standpunt heel aannemelijk: ik koel niet voor Jan-met-de-korte achternaam allerlei samples af tot 4.2K om quantumverschijnselen zichtbaar te maken ;). Als je aannemelijk wilt maken dat quantumprocessen een rol spelen, dan zal je daar expliciete argumentatie voor moeten geven: het standaard antwoord van iedere fysicus zal zijn dat het niet relevant is, omdat we die effecten continu verwaarlozen voor systemen bij kamertemperatuur, zonder verlies van beschrijvende waarde.)

[ Voor 48% gewijzigd door Confusion op 19-01-2005 10:07 ]

Wie trösten wir uns, die Mörder aller Mörder?


  • Opi
  • Registratie: Maart 2002
  • Niet online

Opi

mrClass schreef op woensdag 19 januari 2005 @ 01:34:
Dat is precies wat ik in mijn start post deed. Ik wil aan de hand van de biologische wetenschap een Artificieel Neuraal Netwerk creeren.
In dat geval zou ik je aan willen raden een andere term te gebruiken. Bij de melding van een ANN wordt van bepaalde dingen uitgegaan. De betekenis die jij er aan geeft is volstrekt anders. Dit is alsof je met het woord 'wiel' een of ander schoonmaakinstallatie bedoelt. :)

  • Zoijar
  • Registratie: September 2001
  • Niet online

Zoijar

Because he doesn't row...

Verwijderd schreef op dinsdag 18 januari 2005 @ 22:41:
Het verhaal over de quantum effecten klinkt leuk, maar heeft hier niets mee te maken.

Onbeslibaarheid is ook zoiets wat er niets mee te maken heeft. Wij zijn net zo goed een "slachtoffer" hiervan.
Alleen als wij equivalent zijn aan een turing machine. Maar daar gaat het nu juist om. Dus ik zie niet in dat het er niets mee te maken zou hebben; het heeft er juist alles mee te maken. Wellicht kan een mens wel het halting probleem oplossen voor willekeurige input. Menselijk denken is naar mijn gevoel ook niet een serie bewerkingen, die stap[je voor stapje worden uitgevoerd om tot een resultaat te leiden. Het is eerder een aan eenschakeling van "eureka" momenten; plotseling zie je de oplossing voor je.

Verwijderd

Zoijar schreef op woensdag 19 januari 2005 @ 11:56:
Menselijk denken is naar mijn gevoel ook niet een serie bewerkingen, die stap[je voor stapje worden uitgevoerd om tot een resultaat te leiden. Het is eerder een aan eenschakeling van "eureka" momenten; plotseling zie je de oplossing voor je.
Wat denken naar jouw gevoel is, heeft natuurlijk nauwelijks iets te maken met hoe je hersenen werkelijk werken.

  • Zoijar
  • Registratie: September 2001
  • Niet online

Zoijar

Because he doesn't row...

Verwijderd schreef op woensdag 19 januari 2005 @ 12:09:
Wat denken naar jouw gevoel is, heeft natuurlijk nauwelijks iets te maken met hoe je hersenen werkelijk werken.
Nouja, "ik" ben m'n hersenen, dus die doen een uitspraak over zichzelf ;) Maar het was maar een kanttekening, en niet m'n oorspronkelijke punt. Op voorbeelden in gaan heeft niet zo veel nut, je moet je tot kern punten beperken. Dus vergeet die laatste paar zinnen maar (er stond niet voor niet "naar mijn gevoel" bij, ik let meestal wel op wanneer ik een duidelijke mening ipv feit post, om dat erbij te vermelden)

Verwijderd

[quote]Zoijar schreef op woensdag 19 januari 2005 @ 12:50:
Nouja, "ik" ben m'n hersenen, dus die doen een uitspraak over zichzelf
Ik zou graag met je meelachen als ik zou weten dat je dat soort uitspraken net zo totaal belachelijk, onzinnig en zonder ook maar een kern van betekenis vindt, als ik. })
Dus vergeet die laatste paar zinnen maar
Dan blijft zo ongeveer over: Wellicht kan een mens wel het halting probleem oplossen voor willekeurige input.

Wat weer een argument is waar je stil van wordt. En het heeft zelfs een naam: argumentum ad ignorantiam . Een drogreden dus, en erg populair deze thread.

Maar goed, je reageerde natuurlijk op 'gang-ster' die vond dat het halting problem niets te maken had met deze discussie. Hij had gelijk gehad als hij dat preciezer geformuleerd had. Hij had moeten zeggen dat het alleen relevant is of een computer 'last heeft' van onbeslisbaarheid, als blijkt dat mensen dat niet hebben. En omdat dat nog niet is gebleken, maakt het ook niet uit voor AI. Dat bedoelde hij natuurlijk wel.

  • Zoijar
  • Registratie: September 2001
  • Niet online

Zoijar

Because he doesn't row...

[quote]Verwijderd schreef op woensdag 19 januari 2005 @ 13:20:
Zoijar schreef op woensdag 19 januari 2005 @ 12:50:
Ik zou graag met je meelachen als ik zou weten dat je dat soort uitspraken net zo totaal belachelijk, onzinnig en zonder ook maar een kern van betekenis vindt, als ik. })
Dat was idd een grap :P
Dan blijft zo ongeveer over: Wellicht kan een mens wel het halting probleem oplossen voor willekeurige input.

Wat weer een argument is waar je stil van wordt. En het heeft zelfs een naam: argumentum ad ignorantiam . Een drogreden dus, en erg populair deze thread.
Een drogrede? Meer een hypothese, die bij waarheid het bestaan van strong ai weerlegt. (ik zeg dus niet "strong ai bestaat niet, want wellicht kan een mens dit oplossen", ik zeg "als een mens dit op kan lossen, bestaat strong ai niet, en dus is de oplossing van dit probleem relevant voor de vraag of strong ai wel of niet bestaat")
Maar goed, je reageerde natuurlijk op 'gang-ster' die vond dat het halting problem niets te maken had met deze discussie. Hij had gelijk gehad als hij dat preciezer geformuleerd had. Hij had moeten zeggen dat het alleen relevant is of een computer 'last heeft' van onbeslisbaarheid, als blijkt dat mensen dat niet hebben. En omdat dat nog niet is gebleken, maakt het ook niet uit voor AI. Dat bedoelde hij natuurlijk wel.
Dat is wat ik al eerder zelf zei. Wat een onzin om te stellen dat iets niets uitmaakt, omdat het nog niet gebleken is (over drogrede gesproken...) Gangster stelt, in bold nog wel, dat het er niets toe doet. Maar het doet er alles toe, bij waarheid is het namelijk een sterke weerlegging. (bovendien stelt hij nog dat "wij er net zo goed slachtoffer van zijn", iets wat helemaal niet aangetoont is. Maar als het zo is, nog steeds geen strong ai bewijst, terwijl het omgekeerde strong ai wel weerlegt)

[ Voor 15% gewijzigd door Zoijar op 19-01-2005 14:53 ]


Verwijderd

Zoijar schreef op woensdag 19 januari 2005 @ 14:48:
Een drogrede? Meer een hypothese, die bij waarheid het bestaan van strong ai weerlegt
En dat is dus geen argument is tegen strong AI!
Ik ken wel meer hypotheses die als ze waar zijn strong ai weerleggen, zoals "Strong AI is onmogelijk" of "Voor intelligentie is een ziel nodig, en computers hebben geen ziel."

Je zei:
a) strong AI -> een computer kan bewust zijn en de mens evenaren (als het zich gedraagt als een kip, dan is het ook een kip)
[..]
(a) wordt redelijk aannemelijk weerlegd,
Dus ging ik er maar vanuit dat je bezig was met het 'aannemelijk weerleggen' van a). Mea maxima culpa als je weer gewoon meninkjes of voorbeeldjes of zoiets noemde waar ik niets op mag zeggen.
Dat is wat ik al eerder zelf zei. Wat een onzin om te stellen dat iets niets uitmaakt, omdat het nog niet gebleken is
Dat is helemaal geen onzin, dat is het plaatsen van de burden of proof waar ze hoort: bij de claim dat mensen somehow 'meer' kunnen berekenen dan computers, nee, zelfs het halting probleem op kunnen lossen!

Op die burden of proof komt het neer; misschien hebben we wel verschillende opvattingen over wat de meest fantastische claim is:
  • . Dat de hersenen computationeel hoogstens net zo krachtig zijn als het computationeel krachtigste logisch-wiskundige systeem dat we kennen.
  • . Dat de hersenen computationeel krachtiger zijn dan het computationeel krachtigste logisch-wiskundige systeem dat we kennen.
Het lijkt mij vrij duidelijk wat waarschijnlijker is...

offtopic:
edit:
typo's

[ Voor 4% gewijzigd door Verwijderd op 19-01-2005 16:07 ]


  • Zoijar
  • Registratie: September 2001
  • Niet online

Zoijar

Because he doesn't row...

Verwijderd schreef op woensdag 19 januari 2005 @ 15:22:
En dat is dus geen argument is tegen strong AI!
Ik ken wel meer hypotheses die als ze waar zijn strong ai weerleggen, zoals "Strong AI is onmogelijk" of "Voor intelligentie is een ziel nodig, en computers hebben geen ziel."
Als die niet weerlegd kunnen worden, zijn het zeker punten om over te denken. Wetenschap begint met een hypothese, en gaat dan kijken of deze houdbaar is en/of aannemelijk om mee te beginnen.
Je zei:
Dus ging ik er maar vanuit dat je bezig was met het 'aannemelijk weerleggen' van a). Mea maxima culpa als je weer gewoon meninkjes of voorbeeldjes of zoiets noemde waar ik niets op mag zeggen.
Als je op zo'n toon wilt discussieren, dan hoeft het voor mij niet. Er wordt hier een topic geopend, om bepaalde dingen gevraagd, en ik post een aantal dingen (achtergrond info) om over na te denken. Dingen die oa door mensen als Penrose al onderzocht zijn. Als mijn posts je niet bevallen, dan lees je ze maar niet; sommige andere mensen hebben er misschien wel wat aan, en zien wellicht dingen waar ze nog niet aan gedacht hadden.

(Misschien ook deze zin nog eens lezen: "Penrose claimed overigens niet dat wat hij beschrijft "waar" is. Er worden vier "kampen van gedachte" beschreven, en hij maakt aannemelijk (op een sterke manier) waarom hij voor een bepaald kamp kiest, en waarom volgens hem de andere kampen niet juist/volledig zijn." Je hoort het mij nergens over onweerlegbaar bewijs hebben...)
Dat is helemaal geen onzin, dat is het plaatsen van de burden of proof waar ze hoort: bij de claim dat mensen somehow 'meer' kunnen berekenen dan computers, nee, zelfs het halting probleem op kunnen lossen!

Op die burden of proof komt het neer; misschien hebben we wel verschillende opvattingen over wat de meest fantastische claim is:
  • . Dat de hersenen computationeel hoogstens net zo krachtig zijn als het computationeel krachtigste logisch-wiskundige systeem dat we kennen.
  • . Dat de hersenen computationeel krachtiger zijn dan het computationeel krachtigste logisch-wiskundige systeem dat we kennen.
Het lijkt mij vrij duidelijk wat waarschijnlijker is...
Tsja, je zegt het zelf al. Ik kan die burden of proof net zo goed bij de AI-ers leggen. Bewijs jij idd maar dat AI net zoveel kan als mensen. Mij is het totaal niet duidelijk wat waarschijnlijker is, maar als ik moet kiezen zou ik (ook?) het eerste punt als meest fantastisch kiezen. Het belachelijke idee, dat je met een machine die stapjes kan zetten en symbooltjes kan schrijven, een mens zou kunnen evenaren! :P

Kortom, je lijkt zo zeker te zijn van je gelijk en mijn "belachelijk zijn"...hoewel tegelijkertijd de 'leading scientists' het er niet eens over eens zijn. Er zijn wel degelijk indicaties voor mijn gelijk; ookal zijn dat geen harde bewijzen, toch is dat genoeg om er onderzoek naar te doen.

[ Voor 9% gewijzigd door Zoijar op 19-01-2005 17:04 ]


Verwijderd

Zoijar schreef op woensdag 19 januari 2005 @ 17:01:
Als die [hypothesen] niet weerlegd kunnen worden, zijn het zeker punten om over te denken.
Ah, dat is van dit soort logica "Omdat je niet kunt bewijzen dat God niet bestaat, is dat een aanwijzing dat hij wél bestaat", toch?
Ik kan die burden of proof net zo goed bij de AI-ers leggen.
Inderdaad, en als het verschil van mening over de burden of proof het enige is wat overblijft, hebben we een patstelling. Mee eens?

Dan vraag ik me nog steeds af waar je vandaan haalt dat "strong AI [..] redelijk aannemelijk weerlegd [wordt]". Als je er een patstelling is, zou je zelfs zo'n claim niet moeten maken, lijkt mij. Over "onweerlegbaar bewijs" hoor je mij niet, en dat is ook niet nodig.

  • Zoijar
  • Registratie: September 2001
  • Niet online

Zoijar

Because he doesn't row...

Verwijderd schreef op woensdag 19 januari 2005 @ 18:00:
Ah, dat is van dit soort logica "Omdat je niet kunt bewijzen dat God niet bestaat, is dat een aanwijzing dat hij wél bestaat", toch?
Nee, want dat zou een drogrede zijn :P Je kan wel stellen, dat als er tot nu toe geen enkele vorm van bewijs is dat hij wel bestaat, het een redelijke veronderstelling is dat hij niet bestaat. (en ik vind dit geloofwaardiger dan de omkering, die je ook kan maken) Heb je ooit gehoord van NPC problemen? Dat is net zoiets over de equivalentie van de complexiteits klassen P en NP. Het is op dit moment, vanwege gebrek aan tegenbewijs, redelijk geaccepteerd in de gemeenschap dat deze twee klasse niet equivalent zijn. Natuurlijk houdt iedereen wel in zijn achterhoofd, dat het niet zo hoeft te zijn, immers is er geen bewijs. Bij gebrek aan onomstotelijk bewijs, gaat het op een gegeven moment om geloof.
Inderdaad, en als het verschil van mening over de burden of proof het enige is wat overblijft, hebben we een patstelling. Mee eens?
Alles waar je (nog) geen bewijs voor hebt is een patstelling in die zin. Dus moeten we dan maar stoppen met onderzoek? :) Je hebt toch wel iets van gevoel en intuitie? Als je anders denkt dan ik op dit gebied, dan vind ik dat ook niet erg ofzo; maar ik vind het wel hinderlijk als jij het erg vindt als ik anders denk dan jij.
Dan vraag ik me nog steeds af waar je vandaan haalt dat "strong AI [..] redelijk aannemelijk weerlegd [wordt]". Als je er een patstelling is, zou je zelfs zo'n claim niet moeten maken, lijkt mij. Over "onweerlegbaar bewijs" hoor je mij niet, en dat is ook niet nodig.
Weerlegging in de zin van "het voor mij meer geloofwaardig maakt, dat strong AI niet bestaat, dan dat het wel bestaat". Evenals je de non-equivalentie van NP en P geloofwaardiger kan maken dan de equivalentie.

Verwijderd

Zoijar schreef op woensdag 19 januari 2005 @ 18:11:
Weerlegging in de zin van "het voor mij meer geloofwaardig maakt, dat strong AI niet bestaat, dan dat het wel bestaat".
Ooooh... weerlegging in de zin van jouw hele eigen ad-hoc herdefinitie van het woord! Zeg dat dan meteen!

  • Zoijar
  • Registratie: September 2001
  • Niet online

Zoijar

Because he doesn't row...

Verwijderd schreef op woensdag 19 januari 2005 @ 20:53:
Ooooh... weerlegging in de zin van jouw hele eigen ad-hoc herdefinitie van het woord! Zeg dat dan meteen!
Schiet op, ga eens normaal discussieren ipv te trollen... Als je geen intelligent weerwoord kan voeren, hou je opmerkingen dan maar voor je...

  • Confusion
  • Registratie: April 2001
  • Laatst online: 01-03-2024

Confusion

Fallen from grace

Verwijderd schreef op dinsdag 18 januari 2005 @ 23:53:
De onderliggende vraag is natuurlijk wel of er bewustzijn aanwezig is, want zonder bewustzijn is er geen begrip mogelijk.
Dat er bewustzijn is, is triviaal. De klerk is immers een bewust wezen. Het punt is juist dat dit bewuste systeem geen Chinees kan begrijpen door enkel formele symbolen te manipuleren. Aan het bewustzijn wordt de gebruikelijke 'causale krachten' (in Searle's termen) onthouden.
De vraag "wat als hij alles uit zijn hoofd leert?" is naar mijn idee veel interessanter dan dat Searle ze wil doen voorkomen; want wat gebeurt er in werkelijkheid als die klerk de "instructies Chinees" uit zijn hoofd leert en ze dagelijks gebruikt? Hij leert (mi.) de taal.
Als hij het Chinese symbool voor 'koe' als antwoord geeft op de Chinese vraag "Zwart-wit gevlekt dier dat melk geeft', dan heeft hij vraag noch antwoord begrepen. Hij weet niet welk symbool voor zwart, wit, melk of koe staat. Het zijn enkel symbolen voor hem en zouden door willekeurige symbolen van een niet bestaande taal vervangen kunnen worden. Hij heeft alleen instructies om bepaalde, voor hem betekenisloze, tekens aan andere betekenisloze tekens te verbinden. Tenzij je nu beweert dat er in elke taal een unieke combinatie van symbolen met andere symbolen is, waardoor de man uiteindelijk kan afleiden waarvoor elk symbool moet staan, dan zal hij nooit de betekenis van de symbolen achterhalen. En zelfs als je voorgaande bewering doet, dan lijkt het me niet dat begrip ontstaat door een puzzel van immense omvang op te lossen. Zo ontstaat ons begrip immers ook niet.
Als we dus een systeem bouwen dat sensorisch, qua geheugencapaciteit en qua patroonherkennend vermogen krachtig genoeg is, waarom zou dat kunstmatige systeem dan geen associaties (semantische koppelingen) tussen de wereld en de klanken+syntax van het Chinees kunnen leggen en een menselijk zenuwstelsel wel? Als zo'n kunstmatig systeem dat doet, als ik het (in het Chinees) kan vragen wat de kleur van een willekeurig zichtbaar voorwerp is en ik krijg een correct antwoord, dan veronderstel ik dat dat systeem begrip en daarmee ook bewustzijn toont
Stel dat je het sensorische systeem bouwt, maar in plaats van een 'systeem met patroonherkennend vermogen' jezelf erin zit. Een beter, al bewust, systeem is er toch niet te bedenken? Je krijgt wederom symbolen binnen, die bijvoorbeeld vanuit het auditieve apparatus van het systeem komen en je geeft, geheel volgens de extra verkregen instructies (instructies in het Nederlands om voor jou betekenisloze symbolen aan andere betekenisloze symbolen te koppelen), symbolen terug die de ogen doen bewegen en het systeem doen kijken naar het genoemde voorwerp, om de kleur te bepalen. Dan krijg jij weer symbolen binnen die dat beeld representeren en je geeft, geheel volgens de regels, symbolen terug, die het systeem laten zeggen wat het voor kleur ziet. Een Chinees buiten het systeem zal denken dat het systeem begrijpt wat het ziet. Maar geen enkel onderdeel van het systeem begrijpt wat het ziet: jij hebt alleen betekenisloze symbolen gemanipuleerd en de rest zijn slechts electrische en mechanische vertaalsystemen.

Let wel: Searle denkt dat een 'machine', 'man-made machine' of 'digital computer' kan denken. Hij stelt alleen dat iets niet kan denken en begrijpen solely in virtue of being a computer with the right sort of program. Waarom niet? Because the formal symbol manipulations themselves don't have any intentionality; they are quite meaningless; they aren't even symbol manipulations, since the symbols don't symbolize anything. In the linguistic jargon, they have only syntax, no semantics. Such intentionality as computers have is solely in the minds of those who program them and those who use them, those who send in input and those who interpret the output..

De schuingedrukte stukken zijn citaten uit Minds, brains and programs van John Searle

[ Voor 3% gewijzigd door Confusion op 19-01-2005 21:29 ]

Wie trösten wir uns, die Mörder aller Mörder?


Verwijderd

Confusion schreef op woensdag 19 januari 2005 @ 21:28:
Stel dat je het sensorische systeem bouwt, maar in plaats van een 'systeem met patroonherkennend vermogen' jezelf erin zit. Een beter, al bewust, systeem is er toch niet te bedenken? Je krijgt wederom symbolen binnen, die bijvoorbeeld vanuit het auditieve apparatus van het systeem komen en je geeft, geheel volgens de extra verkregen instructies (instructies in het Nederlands om voor jou betekenisloze symbolen aan andere betekenisloze symbolen te koppelen), symbolen terug die de ogen doen bewegen en het systeem doen kijken naar het genoemde voorwerp, om de kleur te bepalen. Dan krijg jij weer symbolen binnen die dat beeld representeren en je geeft, geheel volgens de regels, symbolen terug, die het systeem laten zeggen wat het voor kleur ziet. Een Chinees buiten het systeem zal denken dat het systeem begrijpt wat het ziet. Maar geen enkel onderdeel van het systeem begrijpt wat het ziet: jij hebt alleen betekenisloze symbolen gemanipuleerd en de rest zijn slechts electrische en mechanische vertaalsystemen.
Zo kan iedereen een systeem in elkaar zetten. Het wordt interessanter als het systeem uit zichzelf die commando set gaat uitbreiden om zo nieuwe symbooltjes en kleurtjes te creëren. Het systeem begrijpt dan wel niet hoe die basis commando's, kleurtjes en de symbooltjes zijn ontstaan maar het kan wel een nieuwe bruikbare invulling geven aan zijn nieuwe mogelijkheden. Mocht hij in contact staan met een zelfde systeem met dezelfde basis informatie dan kan daartussen een nieuwe communicatievorm ontstaan. Hierbij zal op een gegeven moment die gekke chinees buiten de boot vallen met zijn basis speeltjes.

Verwijderd

Confusion schreef op woensdag 19 januari 2005 @ 21:28:
Dat er bewustzijn is, is triviaal. De klerk is immers een bewust wezen. Het punt is juist dat dit bewuste systeem geen Chinees kan begrijpen door enkel formele symbolen te manipuleren. Aan het bewustzijn wordt de gebruikelijke 'causale krachten' (in Searle's termen) onthouden.
Nee, dat bewustzijn is niet triviaal want Searle introduceert een klerk als analogie voor een machine die hij niet bewust acht. Mijn kritiek op Searle is nu juist dat hij de machine 'causale krachten' onthoudt; dat vind ik niet al te realistisch.
Stel dat je het sensorische systeem bouwt, maar in plaats van een 'systeem met patroonherkennend vermogen' jezelf erin zit. Een beter, al bewust, systeem is er toch niet te bedenken? Je krijgt wederom symbolen binnen, die bijvoorbeeld vanuit het auditieve apparatus van het systeem komen en je geeft, geheel volgens de extra verkregen instructies (instructies in het Nederlands om voor jou betekenisloze symbolen aan andere betekenisloze symbolen te koppelen), symbolen terug die de ogen doen bewegen en het systeem doen kijken naar het genoemde voorwerp, om de kleur te bepalen.
Het punt is nu juist dat het niet zo eenvoudig is om "het genoemde voorwerp" te identificeren uit je eigen sensorische input, als je de taal niet begrijpt; ergens moet er een semantische interactie plaatsvinden tussen de input van de "domme" waarnemer en de "slimme" interpretator die de taal wel begrijpt.

Als onze hypothetische machine voldoende patroonherkennend vermogen en geheugen bezit, dan zal ze (net als een kind dat een taal leert) klanken/woorden/symbolen leren associëren met zaken in de "wereld" van haar sensorische input; wanneer die klanken/symbolen telkens die andere sensorische input begeleiden. Maw. die semantische koppeling is niet meer dan het herkennen van een patroon tussen bepaalde klanken/symbolen en bepaalde andere inputs, iets wat niet buiten het bereik van van onze huidige techniek (NNs) ligt. Dat leggen van die semantische koppelingen gaat instinctief bij mensen (en dieren - Pavlov) en zou ook "automatisch" gaan bij ons hypothetisch zelflerend systeem.
Hij stelt alleen dat iets niet kan denken en begrijpen solely in virtue of being a computer with the right sort of program. Waarom niet? Because the formal symbol manipulations themselves don't have any intentionality; they are quite meaningless; they aren't even symbol manipulations, since the symbols don't symbolize anything. In the linguistic jargon, they have only syntax, no semantics. Such intentionality as computers have is solely in the minds of those who program them and those who use them, those who send in input and those who interpret the output..
Ik vind dit dus een gekunsteld argument, zoals ik in mijn vorige post al aangeef: het is mogelijk om semantiek te introduceren door onze machine geheugen + zintuigen te geven en haar -net als een kind- een taal te leren. (Ik wil hiermee niet beweren dat we zoiets met onze huidige kennis zouden kunnen bouwen.)

[ Voor 6% gewijzigd door Verwijderd op 20-01-2005 02:45 ]


Verwijderd

Zoijar schreef op woensdag 19 januari 2005 @ 21:07:
Als je geen intelligent weerwoord kan voeren, hou je opmerkingen dan maar voor je...
Tsss...

Ik heb je volslagen belachelijke claims genegeerd dat ik:
- "Tegen" verder onderzoek zou zijn.
- Het erg zou vinden dat jij anders denkt dan ik.

Terwijl jij o.a.:
- Het woord 'weerlegging' totaal idiosyncratisch herinterpreteert als '[het] voor mij [het tegenovergestelde] meer geloofwaardig [maakt]'.
- Substitutie van "dat de menselijke geest Turing computable is" voor "dat God niet bestaat" niet kunt uitvoeren (mutatis mutandis).
- Met je appeal to 'leading scientists' een drogreden toepast.
- Je eerder zo stelig verkondigde posities later afdoet als 'voorbeeldjes' of 'meningen' of 'achtergrond info' als het je te moeilijk wordt.
- De rol van argumenten en hypotheses in een discussie verdraait.

En dan moet ik m'n mond houden? Kom op zeg!

  • Zoijar
  • Registratie: September 2001
  • Niet online

Zoijar

Because he doesn't row...

Ik denk dat ik m'n punten nu wel genoeg heb uitgelegd. Als je bovenstaande echt denkt, dan moet je het nog maar eens rustig nalezen. Dit is het laatste wat ik er over zeg :z

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
W&L is een discussie-forum waar we discussieren, en niet een forum waar gezeurd wordt over de manier waarop de andere discussieert. Als je het er niet mee eens bent, dan ga je er tegenin met argumenten. Negeert de ander je argumenten; dan negeer je hem of haar. Zo simpel is het. Geen gezeur, geen geneuzel, wel ge-discussieer. Met andere woorden; Bahsj en Zoijar; vervolg jullie discussie of stop er mee.

[edit]
Zandor; bedankt voor je opmerking, maar die had ik al gemaakt :)

[ Voor 9% gewijzigd door Christiaan op 20-01-2005 13:10 ]


  • mrClass
  • Registratie: April 2002
  • Laatst online: 17-04-2025
OpifexMaximus schreef op woensdag 19 januari 2005 @ 10:16:
In dat geval zou ik je aan willen raden een andere term te gebruiken. Bij de melding van een ANN wordt van bepaalde dingen uitgegaan. De betekenis die jij er aan geeft is volstrekt anders. Dit is alsof je met het woord 'wiel' een of ander schoonmaakinstallatie bedoelt. :)
ok. laat ik het vervolgende NANN noemen. "New Artificial Neural Network". Neej maar even serieus. Ik geloof dat het wel duidelijk is in mijn start post dat ik kunstmatig een biologisch neuraal netwerk zou willen maken. Zoals de vertaling van Kunstmatig, Artificial is, is het toch wel duidelijk dat ik 1 of ander ANN bedoel. Maar goed, deze discussie over referentiekaders en termen voegt niet echt iets toe denk ik.

@Confusion
Ik ben nu al 3 dagen bezig met de eerste 5 bladzijden van dat artikel te lezen. Het ziet er allemaal zeer veelbelovend uit. Maar ik vind het jammer dat ik de onderliggende natuurkunde niet geheel snap (Op het gebied van de QM, over bv spatial decoherence en superpositie). Heb jij nog meer basis informatie over deze QM?
Pagina: 1