Toon posts:

Buitenaardse intelligentie en Singulariteiten

Pagina: 1
Acties:
  • 228 views sinds 30-01-2008
  • Reageer

Verwijderd

Topicstarter
Er wordt veel gespeculeerd over buitenaards leven, buitenaardse intelligentiae en dergelijke. Na het linkje te hebben gevolgd in de sig van zion, ben ik geinteresseerd geraakt in Singulariteit(en).

Singulariteit zal ik bij deze eerst uitleggen: Intelligentie ontwikkelt zich niet rechtlijnig, maar exponentieel, of eigenlijk exponentieel2. In tegenstelling tot de mens, die gewend is rechtlijnig te denken in zijn eigen ontwikkeling. Als we de huidige ontwikkelingen in dezelfde snelheid zouden doortrekken, dan zou een KI (of AI in het engels) pas in, zeg 2500, realiteit kunnen zijn (en wie dan leeft, wie dan zorgt :) ). Echter, de ontwikkelingen gaan steeds sneller omdat het niet in dezelfde snelheid, maar exponentieel vorderd. Staphylococcus_Rex heeft hier al eerder een topique over geopend, over de gevaren hiervan. Een KI, dat de menselijke intelligentie overtreft, zal in een razend tempo intelligenter en intelligenter worden. Een intelligentie dat in de tijd exponentieel intelligenter wordt, noemt men een Singulariteit, omdat het praktisch oneindig intelligent wordt in een zeer kort tijdsbestek.

Wat dat voor de mensheid inhoud, wil ik buiten beschouwing laten, ik denk dat ieder hier wel zijn eigen gruwelijkheid bij kan indenken.

Wat betreft buitenaardse intelligentie: Als er buitenaardse intelligentie is dat de mens overtreft, lijkt het me zeer goed mogelijk dat dat een Singulariteit is. Welk soort alien het was dat deze singulariteit heeft geschapen, doet er dan niet meer toe.

Op dit punt loop ik dood. Misschien willen jullie hierover discussieren. Ik heb namelijk meerdere mogelijkheden in mijn hoofd:

- Wij zijn totaal minderwaardig aan deze singulariteit(en) en het negeert ons. Wij zullen geen contact krijgen met buitenaards leven.
Hieruit volgt wellicht: De singulariteit bedenkt in zijn oneindige intelligentie dat er meerdere singulariteiten zijn en zal daarmee gaan communiceren. Hoe, via welke middelen en taal zal ons altijd onbekend blijven, wij hebben deze intelligentie gewoon niet.
Misschien zal de Singulariteit het juist wel uit zijn hoofd laten om te gaan communiceren, aangezien het misschien minderwaardig kan zijn aan de andere waarmee hij zal communiceren.

- Maar ook matrix achtige taferelen, en dan niet perse uit de film -de Matrix-, maar meer dat het universum zelf een singulariteit is. En dan is al heel makkelijk de vergelijking naar God te maken, al wil ik daar (nog) niet aan beginnen.

Nog even over buitenaardse intelligentie: Ik denk namelijk dat het heel naief is om te denken dat een buitenaardse intelligentie er uitziet als ons, en dan bedoel ik qua uiterlijk, maar ook qua intelligentie. Buitenaardse intelligentie wordt dankzij Star Trek en dergelijke als gelijkwaardig aan de mens gezien, ik denk echter dat de intelligentie van buitenaardse intelligenties niet te meten is, dat het zeer ver van de schaal van onze IQ testen afloopt. En waarschijnlijk hebben we met een singulariteit te maken als we met een buitenaardse intelligentie te maken hebben.

[ Voor 1% gewijzigd door Verwijderd op 14-04-2003 21:05 . Reden: typo ]


  • GeeBee
  • Registratie: Maart 2000
  • Laatst online: 22:49

GeeBee

Oddball

Ik vind het gevaarlijk om te zeggen hoe intelligentie zich ontwikkeld. We hebben punt een geen vergelijkingsmateriaal dan onszelf en hoe kun je meten wat intelligentie is?
Zijn wij intelligenter dan de Batavieren of de Romeinen? We weten meer, maar maakt dat ons intelligenter? En zo ja, hoe kun je dan de intelligentie van de Romeinen tegen die van ons afmeten?

Verder doorgetrokken, je kunt niet ontkennen dat wij de meest intelligente diersoort op aarde zijn en ook het meest succesvol in deze tijd. Zijn we dus ook de meest geschikte oplossing van de evolutie?

Over de mate waarin we bang moeten zijn of een KI ons ooit inhaalt heb ik zo mijn eigen gedachten die ik elders al eens opgeschreven heb, maar waar ik hier een beetje alleen sta, vrees ik. Ik denk namelijk niet dat dat kan. Mede (weer) gebaseerd op de onmogelijkheid (voorlopig) om een goede definitie te geven van intelligentie en de gedachtengang dat een KI door onszelf bedacht is.

Maar goed, stel dat er aliens zijn, dan ligt het natuurlijk maar net aan de omstandigheden waaronder ze zich ontwikkeld hebben hoe ze er uit zien. In een donkerder omgeving met ijlere lucht hebben ze misschien wel grotere ogen, longen en oren. Wie zal het zeggen?

Of ze intelligenter zijn dan wij en of wij al dan niet met ze zouden kunnen communiceren, ik weet het niet. Wij kunnen niet communiceren met mieren, alleen hun mierenhopen onderuit schoppen uit baldadigheid. Voor de mieren een catastrofe, maar voor ons misschien een leuk experiment om te kijken hoe ze reageren...

offtopic:
Meestal wordt er in ST een of andere menseljke kwaliteit uitgebuit: flexibiliteit, improvisatietalent, etc., waardoor wij (De Mens) toch weer als overwinnaar uit de hoek komt...

Woof, woof, woof! That's my other dog imitation.


Verwijderd

Ik denk dat er niet genoeg middelen zijn voor een oneindige intelligentie. Wel voor een gigantische intelligentie, maar niet oneindig. Ook al is de hele aarde omgevormd tot een soort perfect geordende intelligentie massa, waarbij er verbindingen zijn tussen elk deeltje op elke manier, dan nog is deze intelligentie begrensd, wel heel groot, maar begrensd.

  • Rey Nemaattori
  • Registratie: November 2001
  • Laatst online: 04-11 15:00
Verwijderd schreef op 14 April 2003 @ 23:50:
Ik denk dat er niet genoeg middelen zijn voor een oneindige intelligentie. Wel voor een gigantische intelligentie, maar niet oneindig. Ook al is de hele aarde omgevormd tot een soort perfect geordende intelligentie massa, waarbij er verbindingen zijn tussen elk deeltje op elke manier, dan nog is deze intelligentie begrensd, wel heel groot, maar begrensd.
Die KI zal zich uitbreiden naar de maan, vervolgens door het zonenestelsel en langzaam het universum veroveren )

Speks:The Hexagon Iks Twee Servertje

"When everything is allright,there is nothing left."Rey_Nemaattori


  • Mx. Alba
  • Registratie: Augustus 2001
  • Laatst online: 15-12 15:11

Mx. Alba

hen/hun/die/diens

GeeBee, zelfs als intelligentie niet goed gedefiniëerd is, wat heb je nodig voor intelligentie?

- Een zelflerend circuit (hoe efficiënter hoe beter)
- Een geheugen (hoe groter en hoe sneller, hoe beter)

Zelflerende circuits bestaan al. Met behulp van neurale netwerken zijn bijvoorbeeld zespotige robots gemaakt die volledig ongeprogrammeerd neergezet worden met als enige opdracht dat ze zich moeten verplaatsen. Ter plekke leren ze lopen, en zullen ze ook leren obstakels te bedwingen, in enkele minuten.

Maar met een leerproces alleen ben je er niet. Intelligentie is ook dat je dingen kunt voorzien, nieuwe situaties correct inschatten aan de hand van analyses van andere situaties. Daarvoor is een geheugen nodig. Maar als je dus een geheugen met een zelflerend circuit combineert, heb je in principe gewoon een vorm van intelligentie te pakken.

De snelheid en efficiëntie van computercircuits neemt steeds verder toe. Moore voorspelde dat de optimale kosten/baten-verhouding van transistoren per chip elk jaar zou verdubbelen, en daarin heeft hij volledig gelijk gekregen. Ooit zullen chips gebouwd kunnen worden die zo klein, zo efficiënt zijn, dat er genoeg processorkracht is om de hierboven beschreven vorm van intelligentie te verheffen tot het niveau van de menselijke intelligentie.

Let wel, het zal zeker niet een zelfde vorm van intelligentie zijn! Machines zullen, naar mijn mening, nooit een ware intuïtie hebben, en zullen "mentaal" gezien, waarschijnlijk autistische kenmerken hebben, maar het is wel bekend dat autistische mensen soms juist door die aandoening hyperintelligent zijn! Als een kunstmatige intelligentie eenmaal dat niveau bereikt heeft, zal hij een verbeterde versie van zichzelf kunnen ontwikkelen, en die kinderen van die eerste volwaardige kunstmatige intelligentie zullen dat ook weer kunnen doet, et ainsi de suite à l'infini.

Persoonlijk denk ik overigens dat een ware singulariteit niet mogelijk is, omdat natuurlijk voor het bouwen van een nieuwe generatie KI is tijd, maar vooral resources nodig, en resources zijn niet ongelimiteerd. Maar dat het proces ontiechelijk snel zal gaan, dat is duidelijk...

Kijk, GeeBee, je moet niet denken dat een KI precies als een mens zal zijn. Auto's plaatsen zich voort op het land, maar lopen niet. Boten plaatsen zich voort in en op het water, maar zwemmen niet. Vliegtuigen plaatsen zich voort door de lucht, maar vliegen niet op de zelfde manier als vogels dat doen. Zo ook zullen KI intelligentie hebben, maar niet zoals mensen. Zoals er tussen natuurlijke en kunstmatige voortbeweging een duidelijk verschil zit, zal er tussen natuurlijke en kunstmatige intelligentie ook een duidelijk verschil zitten.

Het is alleen een echte hetze als het uit Hetzerath komt, anders is het gewoon sprankelende ophef.


  • cappie
  • Registratie: Februari 2000
  • Laatst online: 17-05 19:09

cappie

all lowercase

Ik denk dat we KI wel de 4 wetten van Asimov kunnen meegeven:

0) A robot may not injure humanity or, through inaction, allow humanity to come to harm.
1) A robot may not injure a human being, or, through inaction, allow a human being to come to harm. (later toegevoegd)
2) A robot must obey the orders given it by human beings except where such orders would conflict with the Zeroth or First Law.
3) A robot must protect its own existence as long as such protection does not conflict with the Zeroth, First or Second Law.

Als we die wetten aanhouden, en de KI intelligent genoeg weten te krijgen en als 't ware 'opvoeden' om respect te hebben voor biologische systemen zoals ons (maar het wel de vrijheid geven om, bijvoorbeeld, de maan te mogen gebruiken, in ruil voor wat grondstoffen), dan zijn we een stuk beter af, en geven de de KI de ruimte om te ontwikkelen.

Ik ben er namelijk van overtuigd dat de KI die uiteindelijk 10x zo slim is als ons, een 10x zo sterke ethische gewaarwording kan krijgen, zolang de regels er maar vantevoren in worden gebracht.

[ Voor 30% gewijzigd door cappie op 17-04-2003 01:38 ]

Aspire to inspire before we expire | profiel | systeem


  • Avalanchez
  • Registratie: Juni 2002
  • Laatst online: 25-06-2012

Avalanchez

Phr34k

nog geen enkele robot is erin geslaagd de turingtest tot een succesvol einde te brengen... en het ziet ernaar uit dat dat een tijdje zo zal blijven. (voorspellen de meeste wetenschappers)

ik acht mezelf niet intelligenter als bijv een romein. ik ben niet slimmer, er is ondertussen gewoon meer gepasseerd. ik ben niet dé mens. ik ben één mens die gebruikt maakt van alle uitvindingen die (één mensen) over de loop van tijd hebben... eh... uitgevonden.

verder denk ik ook dat onze hersencapaciteit even groot is als die van een 2000 jaar oude romein, die ook al alle uitvindingen gebruikte die afzonderlijke mensen ondertussen al hadden uitgevonden.

over ai in de verre, verre toekomst: trek de stekker uit, weg ai

edit: wat ik dus bedoel, de intelligentie van de mensheid ligt dus in het herbruiken van uitvindingen, de intelligentie van één mens (laat ik als voorbeeld nemen, Einstein, ook al was het mss serendipiteit) heeft zich de voorbije jaren niet echt ontwikkeld mijns inziens. er waren hoogstwaarschijnlijk romeinen met eenzelfde intelligentie, maar nog niet met dezelfde kennis en middelen.

[ Voor 22% gewijzigd door Avalanchez op 15-04-2003 11:55 ]

Computers are stupid, they can only give you answers. -Picasso


Verwijderd

Topicstarter
cappie -> daar ligt het probleem, hoe garanderen we dat een KI zich an de wetten van Asimov houdt en niet gaat muiten? Zie de link in de beginpost voor een eerdere uitgebreidde discussie daarover.

Avalanchez -> Wat betreft intelligentie van Romeinen en hersencapaciteit, heb je volkomen gelijk. Evolutie werkt niet zó snel. Wat betreft de verre, verre toekomst, die kan een stuk dichterbij liggen dan je denkt (sommige zeggen 2012, dat zijn meer de Illuminati en Maya aanhangers, de kalender van uitvindingen, eerder al te vinden op de FP, denkt eerder aan 2030)
Wat betreft "De stekker eruit trekken" zal denk ik niet lukken. Meer hierover is ook te vinden in de link van de beginpost. Wat ik daar over denk: Op het punt dat de KI zó intelligent is dat het gevaarlijk gaat worden, kan hij ons op zulke wijze manipuleren dat wij niet de stekker eruit trekken. Misschien door omkoping (ik maak je de machtigste man ter wereld), misschien door zielig doen (Alsjeblieft, ik ben een levend wezen) of ratio en ethiek (Wie ben jij om te bepalen of ik mag blijven leven?).
Al je te maken hebt met een zeer intelligent schepsel, loop je zeer het gevaar om gemanipuleerd te worden. Ook zou een zeer intelligent schepsel kunnen doen alsof het stukken minder intelligent is, zonder dat wij dat door hebben. Je weet het niet, maar ik zie het als een reëel gevaar!

Maargoed, daar heb ik het topic niet om gestart, al is het zeer interessante materie. Wat ik bedoelde met de beginpost is: Het lijkt mij heel waarschijnlijk dat buitenaardse intelligentie bestaat uit een Singulariteit, wellicht op zoek naar soortgenoten. Deze zal geen contact proberen te maken met radiogolven en SETI projecten, maar waarschijnlijk met veel ge-avanceerdere technieken, en áls het mogelijk is, ook ruimte-tijd overschreidende technieken.
Het zal dan ook niet in de intentie liggen om met óns contact te maken, dat is wel héél erg grootheidswaanzin van ons.

De reden dat er (schijnbaar) nog geen contact is opgenomen mochten er Singulariteiten bestaan kan velerlei zijn:
- terughoudendheid (singulariteit heeft geen behoefte aan contact)
- we worden genegeerd (te minderwaardig)
- té subtiel om door ons op te merken, maar we hebben al wel eenzijdig contact
- We zijn alleen
- Een singulariteit kan niet bestaan (krijgt GeeBee gelijk ;) )
- ...
- ...

[ Voor 2% gewijzigd door Verwijderd op 15-04-2003 13:48 . Reden: typo ]


  • Rey Nemaattori
  • Registratie: November 2001
  • Laatst online: 04-11 15:00
Avalanchez schreef op 15 April 2003 @ 11:53:
nog geen enkele robot is erin geslaagd de turingtest tot een succesvol einde te brengen... en het ziet ernaar uit dat dat een tijdje zo zal blijven. (voorspellen de meeste wetenschappers)

ik acht mezelf niet intelligenter als bijv een romein. ik ben niet slimmer, er is ondertussen gewoon meer gepasseerd. ik ben niet dé mens. ik ben één mens die gebruikt maakt van alle uitvindingen die (één mensen) over de loop van tijd hebben... eh... uitgevonden.

verder denk ik ook dat onze hersencapaciteit even groot is als die van een 2000 jaar oude romein, die ook al alle uitvindingen gebruikte die afzonderlijke mensen ondertussen al hadden uitgevonden.

over ai in de verre, verre toekomst: trek de stekker uit, weg ai

edit: wat ik dus bedoel, de intelligentie van de mensheid ligt dus in het herbruiken van uitvindingen, de intelligentie van één mens (laat ik als voorbeeld nemen, Einstein, ook al was het mss serendipiteit) heeft zich de voorbije jaren niet echt ontwikkeld mijns inziens. er waren hoogstwaarschijnlijk romeinen met eenzelfde intelligentie, maar nog niet met dezelfde kennis en middelen.
Deze ai's hebben het voordeel dat ze zaken als het maken van mircoconductoren niet meer hoeven uit tevinden, omdat wij dat al gedaan hebben. Ook Ai's zullen gaan teren op kennis die hun voorgangers al uitgedacht hebben, alleen door de snelheden waarmee ai's kunnen communiceren zullen ze zeg maar sneller digne van elkaar over kunnen nemen, en omdat ze (in den beginne) geen of nauwelijks ethiek kennen, zullen ze ook geen begrippen als onorthodoxe-ideeën kennen, en daarom niet bij voorbaat al uitsluiten als iets tegen de normale gang van zken wijst.
Oftewel, die ai's zullen dus razendsnel kennis vergaren, delen en opslaan, sneller dan mensen onderling kunnen.

En het eruit trekken van de stekker, stel nou ze zijn slim genoeg om bijv eigen batterijen en accus in te bouwen, sta jij mooi te kijken met die stekker :P

Speks:The Hexagon Iks Twee Servertje

"When everything is allright,there is nothing left."Rey_Nemaattori


  • Avalanchez
  • Registratie: Juni 2002
  • Laatst online: 25-06-2012

Avalanchez

Phr34k

Verwijderd schreef op 15 April 2003 @ 13:47:
Wat betreft "De stekker eruit trekken" zal denk ik niet lukken. Meer hierover is ook te vinden in de link van de beginpost. Wat ik daar over denk: Op het punt dat de KI zó intelligent is dat het gevaarlijk gaat worden, kan hij ons op zulke wijze manipuleren dat wij niet de stekker eruit trekken. Misschien door omkoping (ik maak je de machtigste man ter wereld), misschien door zielig doen (Alsjeblieft, ik ben een levend wezen) of ratio en ethiek (Wie ben jij om te bepalen of ik mag blijven leven?).
Al je te maken hebt met een zeer intelligent schepsel, loop je zeer het gevaar om gemanipuleerd te worden. Ook zou een zeer intelligent schepsel kunnen doen alsof het stukken minder intelligent is, zonder dat wij dat door hebben. Je weet het niet, maar ik zie het als een reëel gevaar!
lol, leuk gedacht :), was bij mij niet opgekomen... enne, dat van die zelf accu's maken enzo...: heb je nog altijd rf-wapens enzo, en we kunnen nog zoiets als magneetwapens enzo uitvinden...
ook stunguns zullen wel helpen...

ik denk eerlijk gezegd niet dat een systeem ooit door mensen bedacht niet door mensen trug kan afgebroken worden...

Computers are stupid, they can only give you answers. -Picasso


Verwijderd

(quotes van allerlei mensen door elkaar gehusseld, excuus hiervoor)
(het eerste gedeelte van deze post is lichtelijk off-topic)
Singulariteit zal ik bij deze eerst uitleggen: Intelligentie ontwikkelt zich niet rechtlijnig, maar exponentieel, of eigenlijk exponentieel2.
Ik zou liever zeggen dat de technologie (ipv intelligentie) zich zo ontwikkelt (het ligt er nog een beetje aan hoe je het allemaal meet, maar Kurzweil beargumenteert het goed in het betreffende artikel).
Je zou daar verschillende oorzaken voor kunnen bedenken, zoals dat technologische ontwikkelingen op zichzelf terugkoppelen, of dat het verbeteren van iets met een orde van grootte steeds ongeveer even moeilijk is (in plaats van steeds 10 keer zo moeilijk).

Alhoewel we steeds meer weten en kunnen, kun je nog niet spreken van een echte toename in intelligentie. We hebben nog hetzelfde brein als de oude Romeinen.

Zodra echter iets gebouwd wordt dat zichzelf recursief intelligenter kan maken worden de regels opeens heel anders. Dan gaat het niet meer over de gewone technische vooruitgang maar een veel sneller exponentieel of dubbel-exponentieel of hyperbolisch verlopend proces dat zich in een paar dagen of minder kan voltrekken. Kurzweil ziet dit soort effecten als alleen maar nog een reden waarom de wet van Moore overeind blijft en ziet geloof ik nog een periode van 10 of 15 jaar tussen dat machines zo intelligent zijn als mensen en dat ze echt superintelligent zijn. Daarin vind ik hem niet erg geloofwaardig; hij houdt te weinig rekening met hoe snel iets zich kan herschrijven/upgraden en hoeveel effectiever een kwalitatief veel hogere intelligentie is.
Wat dat voor de mensheid inhoud, wil ik buiten beschouwing laten, ik denk dat ieder hier wel zijn eigen gruwelijkheid bij kan indenken.
Alhoewel een Singulariteit die "misgaat" IMHO zeker een reëel en groot gevaar is, zou ik de Singulariteit zeker niet alleen als gevaar willen zien. Het is namelijk óók (als het goed verloopt) de enige redelijke mogelijkheid om in korte tijd ziektes, armoede en geweld uit te bannen, het uitsterven van de mens door rampen en oorlogen te voorkomen, over het heelal te weten te komen wat er te weten valt, en wie dat wil miljoenen of meer jaren te laten leven en zichzelf lichamelijk en geestelijk te laten transformeren (ihb intelligenter te laten worden). Enz enz enz.

Of het goed of slecht afloopt hangt niet af van een of ander lot of karma of evolutieladder, maar domweg van hoe je zo'n ding programmeert, wat je voor motivaties je het meegeeft, wat voor veiligheidsmaatregelen je inbouwt (wat niet wegneemt dat dit alleen het startpunt van een AI is in plaats van zijn definitieve aard).
Ik denk dat er niet genoeg middelen zijn voor een oneindige intelligentie. Wel voor een gigantische intelligentie, maar niet oneindig.
Mee eens.

Maar of de vooruitgang in intelligentie en techniek in eindige tijd oneindig zou worden of op den duur steeds groter of op den duur af zou vlakken is naar mijn mening een andere kwestie, die afleidt van het hoofdidee van de technologische singulariteit. (Het lokt allerlei bijdehande opmerkingen uit over dat exponentiële groei nooit bij oneindig komt en eigenlijk niet singulier is, enzovoorts)

Waar het in de praktijk om gaat is dat in zo'n situatie de groei in intelligentie en techniek heel snel gaat, zo snel dat hij niet meer te overzien is en enorme gevolgen heeft. Als we nauwkeurig konden voorspellen wat een superintelligent wezen zou doen, dan waren we zelf zo intelligent; er is dus een soort voorspellingshorizon waar onze normale ideeën en modellen niet meer opgaan. Vandaar "singulariteit" (zoals in een zwart gat). Er hoeft niet per se iets naar oneindig te gaan (zoals in een zwart gat of een wiskundige singulariteit); dat is eigenlijk een ongewenste bijbetekenis. Wat dat betreft is de term heel ongelukkig gekozen. ("The Spike" wordt ook wel als term gebruikt maar is minder ingeburgerd :) )
Machines zullen, naar mijn mening, nooit een ware intuïtie hebben, en zullen "mentaal" gezien, waarschijnlijk autistische kenmerken hebben, maar het is wel bekend dat autistische mensen soms juist door die aandoening hyperintelligent zijn!
Een primitieve AI zal heel anders denken dan een mens en in heel andere dingen goed zijn, bijvoorbeeld door zijn veel grotere seriële rekenkracht.

Op den duur (uitgaande van iets als "brain uploaden") zou het best kunnen dat er geen wezenlijk verschil meer is tussen een geest die als machine is begonnen en een geest die als mens is begonnen. Op den duur, als (nano-, bio-) technologie precies genoeg wordt, heeft het ook misschien geen zin meer onderscheid te maken tussen natuurlijk, "organisch" en kunstmatig, "mechanisch". Uiteindelijk is alles gemaakt van molekulen. :)

Dat machines nooit een ware intuïtie zullen hebben lijkt mij onzin. Intuïtie is niet een toverstokje uit het bovennatuurlijke of een heilige vonk maar gewoon je hersenen die op de achtergrond pruttelen zonder dat je het merkt.
Ik denk dat we KI wel de 4 wetten van Asimov kunnen meegeven
Beter niet--die zijn te vaag, en liggen voor altijd vast, en zijn niet stabiel onder zelf-modificatie. Een AI heeft niet a priori de hersendelen die nodig zijn om een vaag gedefinieerd begrip als "schaden" te interpreteren zoals wij dat zouden doen--die moet je erin bouwen.
Bedenk ook dat je door die regels vast te leggen misschien de toekomst van de mensheid bepaalt--je wilt dus iets wat veilig is en toch voor herziening vatbaar. Dat lukt niet met een paar in mensentaal gestelde regeltjes, maar misschien wel door met de AI samen te werken middels een doordachte strategie.

In het beste geval geeft vertrouwen op Asimovs wetten je een mentaal zwaar gehandicapte AI, in het slechtste geval is het een spectaculaire manier om op planetaire schaal zelfmoord te plegen. :/
over ai in de verre, verre toekomst: trek de stekker uit, weg ai
Wat als hij al op het internet zit? Wat als de maker de stekker er niet uit wil trekken? Hoe weet je wanneer je de stekker eruit moet trekken? Het is niet zo dat een niet-mensvriendelijke AI opeens een holle lach zal gaan uitbraken.


(hier begint het on-topic gedeelte van deze post)
Als er buitenaardse intelligentie is dat de mens overtreft, lijkt het me zeer goed mogelijk dat dat een Singulariteit is.
Ter voorkoming van verwarring: met "Singulariteit" wordt (in dit verband) meestal een gebeurtenis bedoeld in plaats van een object, wezen of verzameling wezens. Wat je dan wel zou moeten zeggen weet ik eerlijk gezegd ook niet.
Welk soort alien het was dat deze singulariteit heeft geschapen, doet er dan niet meer toe.
Wat zijn fysieke vorm betreft waarschijnlijk niet; het zou kunnen dat de uitkomst afhangt van de geestelijke eigenschappen van de aliens, maar het zou ook kunnen van niet.
- Wij zijn totaal minderwaardig aan deze singulariteit(en) en het negeert ons. Wij zullen geen contact krijgen met buitenaards leven.
Dat vind ik om drie redenen onwaarschijnlijk.
Ten eerste betekent meer materie meer rekenkracht. Uit zuiver egoïstisch oogpunt zou je dus wel gek zijn om een heel zonnenstelsel ongebruikt te laten. :)
Ten tweede is het onethisch om een beschaving waar zoveel lijden plaatsvindt en die kans loopt zichzelf te vernietigen in zijn kosmisch sop gaar te laten koken. Wie vindt van niet vanwege de Prime Directive heeft te veel Star Trek gekeken.
Ten derde is er altijd de kans dat hier een Singulariteit plaatsvindt die voor de buitenaardse wezens in kwestie gevaarlijk is.
Deze argumenten zijn niet waterdicht maar volgens mij wel sterk.
- Maar ook matrix achtige taferelen, en dan niet perse uit de film -de Matrix-, maar meer dat het universum zelf een singulariteit is.
Zou je verder kunnen uitleggen wat je daar precies mee bedoelt? Het enige wat ik erbij kan bedenken is dat dit heelal als een simulatie is opgezet door een post-singulier wezen. (Zie ook deze site)

Het zou kunnen, maar dan is er niet veel meer aan te doen. (Maar: zie ook deze site)
- We zijn alleen
Dat vind ik verreweg het waarschijnlijkst.

Verwijderd

Verwijderd schreef op 15 April 2003 @ 18:47:
Ten tweede is het onethisch om een beschaving waar zoveel lijden plaatsvindt en die kans loopt zichzelf te vernietigen in zijn kosmisch sop gaar te laten koken.
Waarom zou een wezen dat vele ordes intelligenter is dan ons dezelfde ethiek hebben als ons, er zijn geen enkele aanwijzingen dat onze ethiek universeel is.

Verwijderd

Ik vraag me af of een singulariteit wel vanzelfsprekend is. Ik denk eigenlijk eerder aan een sigmoidale ontwikkeling van de hoeveelheid kennis.

We zien namelijk dat weliswaar de hoeveelheid kennis die we hebben exponentieel toeneemt, maar tegelijkertijd dat het moeilijker en moeilijker wordt om nieuwe kennis te vergaren. Waar Newton zijn mechanicawetten nog in zijn eentje aan de hand van appels (nu goed, planeten dan) kon opstellen, zijn voor het meten van vele quantummechanische effecten al gevoelige instrumenten nodig, en de allerkrachtigste deeltjesversnellers, bediend door grote groepen wetenschappers, zijn nog niet krachtig genoeg om de snaartheorie eens goed te testen. Hetzelfde geldt in de biologie: Waar vroeger een enkele wetenschapper, Mendel bijvoorbeeld, of Darwin, nog in staat was een revolutionaire theorie op te stellen en uit te werken, is voor een tegenwoordig als revolutionair beschouwde ontwikkeling als de ontrafeling van het menselijk genoom een team van tienduizenden wetenschappers en voor miljarden aan genoomsequencers noodzakelijk. Ook in de chipindustrie stijgen de R&D-kosten exponentieel, terwijl de tijd tussen nieuwe generaties niet exponentieel afneemt en de opbrengst niet exponentieel toeneemt. Lang voordat de eerste kunstmatige intelligentie gevonden wordt, zal deze ontwikkeling afgeremd worden door economische factoren.

De enige reden waarom er tot nu toe een exponentieel stijgende hoeveelheid kennis is, is vanwege de inschakeling van meer en meer wetenschappers, die met steeds betere opleidingen en materiaal aan de klus beginnen. Echter, hieraan is een fysieke grens verbonden door de economie en de menselijke bevolking en het menselijk potentieel. Met ieder " gemakkelijk" feit dat ontdekt wordt, wordt de ontdekking van een volgend feit moeilijker: Eveneens een exponentiele ontwikkeling. Ik zou daarom niet durven stellen dat er uiteindelijk een singulariteit ontstaat: Het zou mij niets verbazen als de ontwikkeling uiteindelijk afremt doordat het ontdekken van nieuwe feiten meer kost dan de groei van de economie als gevolg van innovatie op kan leveren.

Nu zou je kunnen zeggen dat een AI hier geen last van heeft aangezien deze zichzelf kan verbeteren. Echter, ook voor een AI kan er een punt komen waar doorontwikkelen meer kost dan het aan performancewinst oplevert. In dat geval remt ook de ontwikkeling van de AI af.

[ Voor 6% gewijzigd door Verwijderd op 15-04-2003 23:28 ]


Verwijderd

Topicstarter
Ik schreef:
- Maar ook matrix achtige taferelen, en dan niet perse uit de film -de Matrix-, maar meer dat het universum zelf een singulariteit is.
Staphylococcus_Rex:
Zou je verder kunnen uitleggen wat je daar precies mee bedoelt? Het enige wat ik erbij kan bedenken is dat dit heelal als een simulatie is opgezet door een post-singulier wezen.
Ik ben hier nog niet helemaal over uit (zoals ik ook in de beginpost heb aangegeven), dus misschien is het totale onzin wat ik nu neer ga zetten en zal ik me er over een tijdje ook zodanig over uitspreken, maar ik wil toch graag deze vraag beantwoorden met de gedachtes waar is de afgelopen tijd mee rondloop:

Eerst een vraag: Wat is intelligentie?
Als ik daarover nadenk, dan kan ik verschillende definities bedenken, waarvan hier er één is: Als we intelligentie van buitenaf bekijken kunnen we het herkennen aan het feit dat het in staat is orde te scheppen en te herscheppen. Dat is eigenlijk het enige natuurkundige herkenningspunt van intelligentie: Het scheppen van structuren. Het [bewust] vormen van materie.

Een (Kunstmatige) Intelligentie zal uiteindelijk proberen meer brein-connecties te maken (In de SF de zogenaamde Brainplugs) in een poging om intelligenter te worden. En zo ook steeds meer materie pogen tot zich te nemen en te vormen in die vorm dat het er intelligenter van kan worden. (Vraag aan mezelf: Waarom zou een grote intelligentie steeds intelligenter willen worden, wat is zijn motivatie?)

Ik vind het heel moeilijk om dit te verwoorden zoals ik al eerder heb aangegeven, maar is het ondenkbaar dat er een (K)I is (geweest) dat het hele heelal op zich heeft genomen (of geschapen/herordend) als denkmaterie? We leven dan niet in een matrix zoals in "De Matrix" of in een Virtuele Realiteit waar je link over gaat, maar we zijn intelligente levensvormen in het "brein" of het herschapene van een veel grotere intelligentie (God?). (Zelf vind ik het onwaarschijnlijk, maar dat is de vraag niet, de vraag is: Is het mogelijk/denkbaar?).
De vraag of we dan expres hier zijn geplaatst door de (K)I laat ik hier even buiten wege.

Niet dat ik zo graag God wetenschappelijk wil verklaren, maar ik legde eergisteren opeens die link en er werd door Staphylococcus_Rex om gevraagd.

@ Captain Proton -> Wat bedoel je met een sigmoidal ontwikkeling?
Interessant idee om de economie en daarbij ook rendement te betrekken. (maw Nieuwe ontwikkelingen zullen op steeds langere termijn pas terugverdient worden, wat de technologische groei afremt.)
Aan de andere kant, de huidige technolgische ontwikkelingen (dus de kwantiteit in plaats van de kwaliteit) neemt wel exponentieel toe per geldeenheid. Denk hierbij aan RAM, MIPS, maar ook base en aminozuur-sequenties. Ook de vooruitgang per oppervlakte-eenheid neemt exponentieel toe. Denk maar aan het aantal transistors/mm2

ik schreef:
Wij zijn totaal minderwaardig aan deze singulariteit(en) en het negeert ons. Wij zullen geen contact krijgen met buitenaards leven.
Staphylococcus_Rex:
Dat vind ik om drie redenen onwaarschijnlijk.
Ten eerste betekent meer materie meer rekenkracht. Uit zuiver egoïstisch oogpunt zou je dus wel gek zijn om een heel zonnenstelsel ongebruikt te laten.
Ten tweede is het onethisch om een beschaving waar zoveel lijden plaatsvindt en die kans loopt zichzelf te vernietigen in zijn kosmisch sop gaar te laten koken. Wie vindt van niet vanwege de Prime Directive heeft te veel Star Trek gekeken.
Ten derde is er altijd de kans dat hier een Singulariteit plaatsvindt die voor de buitenaardse wezens in kwestie gevaarlijk is.
Deze argumenten zijn niet waterdicht maar volgens mij wel sterk.
Ons zonnestelsel zal misschien wel gebruikt worden, maar zou er rekening met ons gehouden worden? Houden wij rekening met een nest mieren bij een nieuwbouwproject?
Over ethiek: Wieikke zei ook al: Je weet niet wat voor ethiek een Alien-KI erop na houdt.
Over punt drie: Als we een buitenaardse beschaving ontdekken zou het denk ik heel goed mogelijk zijn dat dat een KI is, dat agressief is en wellicht zijn scheppers al heeft uitgeschakeld. Vandaar dat ik eerder poste dat het type Alien waar de KI van afkomstig is er waarschijnlijk niet meer zo toe doet, hooguit inderdaad om de aard van de KI te kunnen verklaren.

Correctie uit eerdere posts waar ik terecht op gewezen ben:
- Een Singulariteit had ik in den beginnen verkeerd begrepen, het is inderdaad meer een tijdstip dan een "iets".
- Exponentieële intelligentie moet inderdaad Exponentieële Vooruitgang zijn. De Exponentieële intelligentie zou wellicht kunnen voorkomen als er uiteindelijk een zelfscheppende KI is gecreëerd, maar dat bedoelde ik inderdaad niet.

Verwijderd

Verwijderd schreef op 14 april 2003 @ 21:04:
Er wordt veel gespeculeerd over buitenaards leven, buitenaardse intelligentiae en dergelijke. Na het linkje te hebben gevolgd in de sig van zion, ben ik geinteresseerd geraakt in Singulariteit(en).

Singulariteit zal ik bij deze eerst uitleggen: Intelligentie ontwikkelt zich niet rechtlijnig, maar exponentieel, of eigenlijk exponentieel2. In tegenstelling tot de mens, die gewend is rechtlijnig te denken in zijn eigen ontwikkeling. Als we de huidige ontwikkelingen in dezelfde snelheid zouden doortrekken, dan zou een KI (of AI in het engels) pas in, zeg 2500, realiteit kunnen zijn (en wie dan leeft, wie dan zorgt :) ).
Pas in 2500?

Met een beetje ehmm 'mazzel' (als dat het woord is).. zijn we er al binnen 10 tot 50 jaar!

Hier is een goede site over dit soort onderwerpen
http://www.kurzweilai.net/ _/-\o_

Verwijderd

Is oneindig intelligent wel mogelijk, wordt datgene was zo intelligent is op een gegeven moment niet gewoon gek?

Verwijderd

Topicstarter
Verwijderd schreef op 16 April 2003 @ 11:54:
[...]


Pas in 2500?

Met een beetje ehmm 'mazzel' (als dat het woord is).. zijn we er al binnen 10 tot 50 jaar!

Hier is een goede site over dit soort onderwerpen
http://www.kurzweilai.net/ _/-\o_
Lees eens verder... misschien zie je dan ook in de zin erna het woordje Echter staan ;)

Maar je hebt gelijk. Er zijn mensen die denken 2012 (Mayan Calendar fanatici) en ook die denken dat pas(?) in 2030 de eerste KI met met mensen vergelijkbare intelligentie ontstaat.
Verwijderd schreef op 16 April 2003 @ 12:10:
Is oneindig intelligent wel mogelijk,...
Nee, waarschijnlijk niet, maar het zal wel naar onze maatstaven een oneindige intelligentie benaderen.
wordt datgene was zo intelligent is op een gegeven moment niet gewoon gek?
Dat weten we dus niet. Wij kunnen met onze intelligentie niet bevatten wat een hogere intelligentie gaat denken (anders hadden wij ook deze intelligentie). Een dat heet dus "de Singulariteit", een intelligentie-horizon, waar we niet overheen kunnen kijken met onze intelligentie.
En het idee dat iets dat intelligenter is dan wij "gek" wordt is natuurlijk erg subjectief. Dit is niet aantoonbaar, al is het wel een heerlijk romantisch en veilig idee (als in "gelukkig ben ik niet té intelligent, dan zou ik het risico lopen dat ik gek was.")

  • Xymox
  • Registratie: Februari 2002
  • Laatst online: 18-11 15:00

Xymox

Determinism rulez !

Wat je vaak ziet is dat super intelligente mensen op andere vlakken weer wat moeten inleveren. Motorische storingen en problemen op sociaal niveau komen dan vaker voor. Lijkt wel dat voor meer intelligentie er andere functies worden opgeofferd

Intel i9-9900K | MSI MPG Z390 Gaming Pro Carbon | MSI RTX 2080Ti Gaming X Trio | Ballistix Sport LT (32GB) | MSI Optix MAG274QRF-QD 1440p | Samsung 970 EVO Plus (2TB) | NZXT Kraken X52 | Valve Index | Fractal Design R6 | Synology DS420j


Verwijderd

Wat bedoel je met een sigmoidal ontwikkeling?
Interessant idee om de economie en daarbij ook rendement te betrekken. (maw Nieuwe ontwikkelingen zullen op steeds langere termijn pas terugverdient worden, wat de technologische groei afremt.)
Aan de andere kant, de huidige technolgische ontwikkelingen (dus de kwantiteit in plaats van de kwaliteit) neemt wel exponentieel toe per geldeenheid. Denk hierbij aan RAM, MIPS, maar ook base en aminozuur-sequenties. Ook de vooruitgang per oppervlakte-eenheid neemt exponentieel toe. Denk maar aan het aantal transistors/mm2
Met een sigmoidale ontwikkeling bedoel ik een ontwikkeling die in het begin (de fase waarin wij ons nu bevinden) exponentieel toeneemt, maar op een bepaald moment afremt doordat de kosten de baten overstijgen en overgaat naar een logarithmische groei of zelfs een tot een asymptoot naderende groei.

Een analogie voor dit groeimodel is te vinden in een bacteriekolonie die zich ontwikkeld uit een enkele bacterie. In het begin heeft die ene bacterie voldoende voedsel, met als gevolg dat er 20 minuten later 2 bacteriën zijn. Nog eens 20 minuten later zijn het er 4. Enzovoorts. Een typisch voorbeeld van asymptotische groei. er is voedsel in overvloed, en in termen van wat het een bacterie kost om te delen, zijn de kosten van de celdeling laag: Er is voedsel in overvloed. Net zoals in het begin van de wetenschappelijke revolutie de ontdekkingen elkaar steeds sneller opvolgen. Ontwikkelkosten zijn relatief laag en daardoor kan kennis zich ongehinderd vermeerderen.

Op een bepaald moment zal in de bacteriekolonie echter het voedsel schaars worden en er niet voldoende zijn om de maximale delingssnelheid vol te houden. De eerst exponentiële groeicurve vlakt dan af, eerst naar een lineaire en dan naar een logarithmische curve en bereikt uiteindelijk een maximum wanneer de voedselhoeveelheid (of om de analogie beter te houden, de voedselaanvoer) maar net voldoende is om de stervende bacteriën te vervangen door levende. Ook in de wetenschappelijke ontwikkeling zou op zich zo kunnen zijn dat er een moment komt waarop de ontwikkelkosten voor nieuwe ontdekkingen zo hoog worden dat de economische winst van die ontdekking die uitgave slechts gedeeltelijk of helemaal niet meer kan compenseren. De vooruitgang remt dan af of stopt zelfs geheel.

Wat betreft de kwantiteit in termen van sequenties, transistoren en dergelijke, dit zijn ontdekkingen die weliswaar steeds sneller gaan, maar die eigenlijk geen werkelijk nieuwe dingen brengen, en die eindig zijn. De hoeveelheid transistoren op een chip is bijvoorbeeld fysisch aan een maximum gebonden en wanneer dat maximum in zicht komt zal die ontwikkeling afremmen. Er zal dan een nieuwe technologie nodig zijn waarvan de ontwikkelingskosten wel aan de hierboven geschetste trend voldoen.

  • zion
  • Registratie: Augustus 1999
  • Niet online

zion

I GoT my I on U

(overleden)
Ik ben blij dat iemand iig zo'n topic opent naar aanleiding van mijn sig :)

Verder denk ik dat het wel zal gebeuren dat KI intelligenter zou worden dan de mens maar dat we dat tegen zullen gaan door zelf hybride (e.g. geheugen implantaten) te worden. Ik acht de kans dat ook niet onmogelijk dat we dmv KI een nieuw soort ras zullen creeren, noem het de Borg, voor een duidelijke analogie.

Wat betreft aliens die er niet zo uit zien als ons, de kans is goed aanwezig dat ze er voor delen wel zo uit zullen zien, immers de ogen voor in het hoofd is noodzakelijk om een goede jager te zijn (wat m.i. weer nodig is om de drang te hebben het universum in te willen trekken), een reuk orgaan is erg handig, en oren (of iig een gehoorsorgaan) is eigenlijk ook onontbeerlijk om tijdig om mogenlijke gevaren te reageren. De marsmannetjes met 3 vingers geloof ik wat minder in, omdat het voor hen heel moeilijk zou zijn om gecompliceerde dingen in elkaar te zetten, iets wat wij nou juist zo goed kunnen door middel van onze duim.
ik denk eerlijk gezegd niet dat een systeem ooit door mensen bedacht niet door mensen trug kan afgebroken worden...
Om maar eens een vergelijking te geven, een kernreactor die op critical mass komt doe je ook niks meer tegen, of je de plug eruit haalt of niet, de meltdown hou je niet meer tegen.

[ Voor 4% gewijzigd door zion op 16-04-2003 17:49 ]

10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem


Verwijderd

Captain Proton:

Allereerst heb je er gelijk in dat een singulariteit niet vanzelfsprekend is. Er zijn allerlei dingen die we niet weten over wat voor technische ontwikkelingen mogelijk en in de praktijk haalbaar zijn, en verder over wat voor sociale processen zich af zullen spelen. Toch zou ik durven beweren dat het één van de waarschijnlijkste scenario's voor de toekomst is, op basis van wat we nu weten--waarschijnlijk genoeg in ieder geval om zeer relevant te zijn (ook nu al).

Het is zo dat (voor bijvoorbeeld computertechnologie) elke technologie apart vaak door een sigmoïde kromme wordt beschreven. In het geval van computertechnologie waren dat bijvoorbeeld eerst mechanische elementen, later vacuumbuizen, en nu dan geïntegreerde circuits.

Zo zal men ook ooit met de huidige soort computers niet meer verder kunnen; dan zal het heel duur worden om maar erg kleine verbeteringen erin aan te brengen.

Eén van de punten die Kurzweil maakt is dat als je al dit soort sigmoïden aan elkaar plakt, er meestal (in benadering) een exponentiële kromme uitkomt. En alhoewel ieder paradigma apart maar beperkt verbeterd kan worden, hoeft dat voor de technologische vooruitgang in totaal niet zo te zijn (tot je aan de grenzen komt van wat fysisch mogelijk is). In het geval van computertechnologie lijkt het erop dat men verwacht dat de groei in het huidige paradigma nog een tijdje voort kan (10 jaar bijvoorbeeld). Of er daarna andere technieken geschikt zijn om het over te nemen is de vraag--maar ik verwacht van wel. Er zijn allerlei kandidaten: chips in 3D, DNA-computers, optische computers, quantumcomputers; denk op de wat langere termijn ook aan moleculaire nanotechnologie, aangenomen dat dat technisch mogelijk is.

Dat er steeds meer geld en arbeid nodig is geweest is een goed punt. Als dat zich snel genoeg doorzet zou het domweg doortrekken van de huidige dubbel-exponentiële kromme een verkeerd beeld geven. Maar het lijkt me zeker niet de enige reden dat exponentiële groei zich voordoet. Als in 1988 computers 1000 keer zo langzaam waren en de (absolute) groei in snelheid ook 1000 keer zo langzaam was, kan zo'n groot verschil nooit alleen veroorzaakt zijn door een verschil in economische investeringen. Tenzij dat een heel groot verschil was--als iemand een bron weet die wat preciezere cijfers hierover geeft (en/of onderbouwt dat investeringen voor R&D exponentieel stijgen) houd ik me aanbevolen. Kurzweil geeft trouwens ook veel voorbeelden van exponentieel beter wordende technieken waarvoor de investeringen niet zo sterk gestegen zijn als voor computertechnologie (denk ik). Ook denk ik dat er in de toekomst wel degelijk heel veel vraag zal zijn naar (kleine, snelle, in alles geïntegreerde) computers; en verder dat we op een gegeven moment nog een terugkoppelingseffect zouden kunnen zien doordat mensen werkelijk intelligenter worden door bijvoorbeeld cybernetische implantaten (zulke effecten zijn er tot nu toe niet geweest).

Ik ben het er niet mee eens dat kwantitatieve vooruitgang in bijvoorbeeld aantallen transistoren geen echt nieuwe dingen meebrengt (al gaat het daar waarschijnlijk niet ver genoeg voor). Meer rekenkracht is een directe vereiste voor bijvoorbeeld AI (noodzakelijke maar niet voldoende voorwaarde). Hoe meer rekenkracht, hoe makkelijker het wordt een algemeen-intelligente AI te bouwen.

Daarmee kom ik bij het belangrijkste punt:
Nu zou je kunnen zeggen dat een AI hier geen last van heeft aangezien deze zichzelf kan verbeteren. Echter, ook voor een AI kan er een punt komen waar doorontwikkelen meer kost dan het aan performancewinst oplevert. In dat geval remt ook de ontwikkeling van de AI af.
Het kost voor een snel denkende AI nauwelijks moeite om zijn eigen software te herschrijven. Een AI kan dat blijven doen zonder economische belemmering, tot hij zo intelligent is als mogelijk is met de rekenkracht die hij heeft. Daarmee zou hij al een heel eind op weg moeten kunnen komen richting superintelligent.

Als hij daarna toegang kan krijgen tot een laboratorium (of de juiste moleculen in elkaar laat zetten) kan hij (nano-)technologie ontwikkelen; als hij toegang krijgt tot meer en betere computers kan hij nog weer een stuk intelligenter worden. Bedenk verder wat een AI met toegang tot het internet allemaal zou kunnen uitspoken. In zo'n situatie zou heel veel heel drastisch veranderen. Ik zou dit (en niet de gewone, al dan niet exponentiële vooruitgang) pas een singulariteit noemen--het tempo ligt veel hoger doordat intelligentie direct op zichzelf terugkoppelt, en er treden op een praktisch discontinuë manier ingrijpende veranderingen op.

Of dan verder de vooruitgang of intelligentie naar oneindig zou gaan of op een heel hoog niveau af zou vlakken als een sigmoïde interesseert me weinig (behalve als leuke filosofische vraag).

Waar het om gaat is dat in de nabije toekomst de ontwikkelingen steeds sneller zullen gaan, met als resultaat de mogelijkheid tot AI (of brain-computer-interfacing, of iets anders), en als waarschijnlijk resultaat daarvan een technologische singulariteit. Misschien is dit wegens de argumenten die je noemt in 2040 in plaats van 2020 o.i.d., misschien niet--dat is niet heel essentieel. Misschien vlakt de groei op een gegeven moment af--dat is ook niet essentieel. Het zal ook niet zo zijn dat er opeens elke dag grote ontdekkingen worden gedaan à la de relativiteitstheorie, en voor mijn part komt de experimentele hoge-energie-fysica een hele tijd stil te staan; toch zijn er volgens mij een hoop mogelijkheden binnen de natuurwetten die we kennen, en waar ook geen zonnenstelsel-omspannende deeltjesversneller voor nodig is.


En zelfs als er maar een kans van 1% zou zijn dat AI binnen de komende 50 jaar mogelijk wordt, zou het dan niet alsnog een zaak van groot belang zijn om te zorgen dat een eventuele AI moreel zou zijn, simpelweg omdat de gevolgen zo groot kunnen zijn?

Verwijderd

Captain Proton: Ik denk niet dat ontwikkelingen geremd zullen worden door de economie. Denk aan de ontwikkeling van nanotechnologie... met geavanceerde nanotechnologie kan je zo ongeveer elk produkt in elkaar draaien voor een paar cent per kilo.

Als Kurzweil's Singulariteit werkelijk waarheid wordt, zal het leven bijzonder aangenaam worden voor alle bewoners op deze planeet. (er van uitgaande dat er niet iets gruwelijk mis gaat, waardoor de aarde aan zijn einde komt)

Verwijderd

Uhm, met een singulariteit wordt in dit geval bedoelt dat je niet kan voorspellen wat die superintelligentie gaat doen, omdat mensen daar (by def.) te dom voor zijn. Niet dat een AI oid oneinidig intelligent is natuurlijk. Niemand weet wat er gaat gebeuren als AI daadwerkelijk bestaat, je zou het (oh natuurkundigen vergeef het me) een event horizon kunnen noemen (horizon is lekker woord voor voorspellingen, en event horizon voor niet te reversen ontw.) met daarin (daarachter?) een singulariteit obviously.

Dus bij een natuurkundige singulariteit gaan gangbare wetten v. natuurkunde niet meer op, bij een intelligentie sing. gaat gangbare economische, sociale, antropologische wetten etc. etc. niet meer op.

Maar in een rant van iemand boven mij stond dit vast ook al, speedreadend zag ik het alleen niet.

7. Vreselijk interessant maar niet heus. Waarover men niet spreken kan, daarover moet men zwijgen om maar eens een bijna-singulariteit te citeren.

Verwijderd

Verwijderd schreef op 19 April 2003 @ 02:40:
Dus bij een natuurkundige singulariteit gaan gangbare wetten v. natuurkunde niet meer op, bij een intelligentie sing. gaat gangbare economische, sociale, antropologische wetten etc. etc. niet meer op.
Bij een singulariteit zoals een zwart gat is de event horizon de afstand tot het middelpunt waarbij de ontsnappingssnelheid de lichtsnelheid is en aangezien niets sneller als het licht kan is dit een plek waarvoorbij niets kan terugkeren. Het is dus niet zo dat de natuurwetten ineens niet meer gelden.

Ook zijn er geen economische, sociale en antropologische wetten die net zo vast zijn als natuurkundige wetten.

Verwijderd

Verwijderd schreef op 19 april 2003 @ 10:22:
[...]
Bij een singulariteit zoals een zwart gat is de event horizon de afstand tot het middelpunt waarbij de ontsnappingssnelheid de lichtsnelheid is en aangezien niets sneller als het licht kan is dit een plek waarvoorbij niets kan terugkeren.
Lees je slecht of begrijp je slecht?
Verwijderd schreef op 19 april 2003 @ 10:22:
[...]
Het is dus niet zo dat de natuurwetten ineens niet meer gelden.
Vertel dat Stephen Hawking. Maar ik zal voor je citeren:
"Last year, in the latest of their celebrated bets about the way the world turns, the cosmologists John Preskill and Kip Thorne of the California Institute of Technology and Stephen Hawking of Cambridge University in England laid odds on what happens to information sucked into those bottomless pits said to lurk within galaxies across the universe. Hawking and Thorne bet that the information -- whether consisting of letters, numbers, the binary digits on a computer disk, or even the arrangement of atoms in a rock -- is gone forever. Preskill wagered that it could not possibly be. According to their signed proclamation: "The loser(s) will reward the winner(s) with an encyclopedia of the winner's choice, from which information can be recovered at will.""
en verder
And that's where the paradox arises. One basic idea of quantum mechanics is what might be called the Law of Conservation of Information. Bits of data must never disappear. Otherwise, an important notion called "micro-reversibility" would be violated:

Whenever two particles collide and splinter into shards, and those shards into other shards, it is supposed to be possible to reverse the process. Presented with the progeny of this cascading process, one should be able to "run the film" backward and identify the parents and grandparents. If information can just leave the universe, then physical processes would not be perfectly predictable.

Even worse, it is widely believed that if information is not conserved, then neither is energy. Information, after all, is physical, not ethereal. "To transmit a given amount of information in a given amount of time requires a minimum amount of energy," Giddings explained. "To lose a given amount of information in a given amount of time requires a violation of energy conservation."
Allemaal van http://www.theory.caltech...eskill/blackhole_bet.html

Wet van behoud van energie zou dus bv volgens SH niet meer gelden in een singulariteit, hmmm, standaard laws of nature heh. Geen idee of het waar is natuurlijk, ik ben geen natuurkundige. Maar zelfs als SH geen gelijk blijkt te hebben, dan bewijst het feit dat er (fundamentele) *onzekerheid* is over wat er in een singulariteit gebeurt alsnog m'n punt.
Ook zijn er geen economische, sociale en antropologische wetten die net zo vast zijn als natuurkundige wetten.
Juist. Nonsense natuurlijk. Dat mensen ze niet kennen, en misschien nooit te weten komen, wil niet zeggen dat ze niet bestaan. Ik heb ook geen uitspraken gedaan over hoeveelheid wetten dus er kan in theorie voor iedere situatie een ``economische'' wet bestaan... ("Als ik 11 euro heb koop ik een computerspelletje bij de V&D", "Als ik 12 euro heb koop ik een ...", "Als ik 13 euro heb ...", etc. etc.).

Let op heh, het gaat niet om natuurwetten, maar om NORMALE (gangbare zei ik een m'n vorige post) natuurwetten....
Pagina: 1