Toon posts:

De Singulariteit: Science of toch Fiction?

Pagina: 1
Acties:
  • 295 views sinds 30-01-2008
  • Reageer

Verwijderd

Topicstarter
Singularity
Defined by Vernor Vinge as the postulated point or short period in our future when our self-guided evolutionary development accelerates enormously (powered by nanotechnology, neuroscience, AI, and perhaps uploading) so that nothing beyond that time can reliably be conceived. The Singularity is a common matter of discussion in transhumanist circles. There is no concise definition, but usually the Singularity is meant as a future time when societal, scientific and economic change is so fast we cannot even imagine what will happen from our present perspective, and when humanity will become posthumanity. Another definition is the singular time when technological development will be at its fastest.
Bron: http://www.eur.nl/fw/scri...ns_voorbij-web/W/w32.html

Het voorbijstreven van de complexiteit van de menselijke geest door de voortgaande ontwikkeling van de techniek doet nog op een andere manier de evolutie versnellen. Versnelling is een gevolg van een combinatie van toenemende complexiteit en de hoeveelheid genetische variatie. De huidige computertechnologie doet zowel de complexiteit als de variatiehoeveelheid van genetisch materiaal (virtueel, maar synthetiseerbaar) toenemen. De evolutie gaat zich dus wederom versnellen. ‘If we continue along our current path, we create an immortal man which can control nature and will ultimately leave Earth, in order to control the Universe. In the meantime, we are already creating a worldwide computer network (the Internet) which will soon be inhabited by Artificial Intelligences, and will reach such a level of complexity, that it is no longer controllable by human intelligence. (...) It is also in that context that we can see the prediction of a Technological Singularity, i.e. a moment in history in which there will be as much novelty as in the whole preceding history. A moment that can be called the ‘End of History’ or ‘The End of Mankind’’ (Bauwens). Of dit het einde van de geschiedenis is, betwijfel ik. Maar wanneer de nadruk ligt op ‘his’, de geschiedenis van de mens zoals we die kennen, dan zou dit wel eens het geval kunnen zijn. Extropianen en andere visionaire transhumanisten propageren een toekomstige overwinning op de dood. En zonder eindigheid verliest de geschiedenis haar betekenis of bestaat zij zelfs niet. Zonder verdere vertraging volgen nu in het volgende gedeelte enkele contemplaties van een onhistorische mens in wording.
Kurzweil hieronder is een van de meest vooraanstaande wetenschappers op het gebied van de toekomst van de wetenschap. Regelmatig geeft hij lezingen over de hele wereld. Van zijn site trok ik dit:
bron: www.kurzweilAI.net

"Moore's Law was not the first, but the fifth paradigm, to provide exponential growth in computing. The next paradigm, which will involve computing in three dimensions rather than the two manifested in today's flat chips, will lead to computing at the molecular, and ultimately the subatomic level. We can be confident that the acceleration of computing will survive the well-anticipated demise of Moore' s Law.

"There are comparable exponential trends underlying a wide variety of other technologies: communications (both wired and wireless), brain scanning speeds and resolutions, genome scanning, and miniaturization (we are currently shrinking technology at a rate of 5.6 per linear dimension per decade). Even the rate of technological progress is speeding up, now doubling each decade. The mathematical models I've developed over the past couple of decades to describe these trends, which I call the law of accelerating returns, has proven predictive of the developments we've seen during the 1990s. From these models, I believe we can be confident of continued exponential growth in these and other technologies for the foreseeable future.

"By 2009, computers will disappear. Displays will be written directly onto our retinas by devices in our eyeglasses and contact lenses. In addition to virtual high-resolution displays, these intimate displays will provide full immersion visual virtual reality. We will have ubiquitous, very-high-bandwidth wireless connection to the Internet at all times. "Going to a web site" will mean entering a virtual reality environment -- at least for the visual and auditory sense -- where we will meet other real people. There will be simulated people as well, but the virtual personalities will not be up to human standards, at least not by 2009. The electronics for all of this will be so small that it will be invisibly embedded in our glasses and clothing.

"By 2029, as a result of continuing trends in miniaturization, computation, and communication, we will have billions of nanobots -- intelligent robots the same of blood cells or smaller -- traveling through the capillaries of our brain communicating directly with our biological neurons. By taking up positions next to every nerve fiber coming from all of our senses, the nanobots will provide full-immersion virtual reality involving all five of the senses. So we will enter virtual reality environments (via the web, of course) of our choice and meet people, both real and virtual, only now the difference won't be so clear.

"Just as people today beam their images from little web cams out onto the Internet for others to share, many people in 2029 will beam the full stream of signals coming directly from their senses onto the web. We will then be able to experience what other people are experiencing, à la John Malkovich. Of course, the everyday lives of many such experience beamers may not be all that compelling, so there will be plenty of prerecorded experiences we can plug into it. Beyond just the five senses, these shared experiences will include emotional responses, sexual pleasure, and other mental reactions.

"Brain implants based on these distributed intelligent nanobots will extend our brains in every conceivable way, massively expanding our memory and otherwise vastly improving all of our sensory, pattern-recognition and cognitive abilities.

"Oh, and one more thing: we'll live a long time too. The expanding human life span is another one of those exponential trends. In the eighteenth century, we added a few days every year to human longevity; during the nineteenth century we added a couple of weeks each year; and now we're adding almost a half a year every year. With the revolutions in rational drug design, genomics, therapeutic cloning of our own organs and tissues, and related developments in bio-information sciences, we will be adding more than a year every year within ten years. So take care of yourself the old-fashioned way for just a little while longer, and you may actually get to experience the remarkable century ahead."
Mijn mening:

Het is onvermeidelijk dat in 2025 onze zelf ontwikkelde machines, qua intelligentie ons meselijk brein evenaren. Wat er daarna gebeurd is de grote vraag. Kurzweil heeft het over een ongelooflijk snelle technologische vooruitgang waardoor slecht 5 tot 10 jaar later een systeem bestaat dat qua intelligentie zo geavanceerd is dat het het menselijk brein van alle mensen op de aardbol bij elkaar evenaard. Dit zal als een sneeuwbal effect werken op de civilisatie en in een aantal jaren zitten "wij" op de top van ons technologisch kunnen. Ongekende mogelijkheden, zoals hierboven in mijn quote al een aantal stonden, zullen dan tot de mogelijkheden behoren. Alleen, wat doet de technologie zelf? Neemt die technologie het dan niet van de mens over en worden wij dan niet de "onderhoudsmonteur" van ons eigen produkt? Zelfs daarin zijn we op een gegeven moment overbodig. De grondstoffen van de aarde hebben met onze hulp, ons minderwaardig gemaakt in een razendsnel tempo.

De meeste kennen het verhaal wel van de klok.
Zie de tijd dat de aarde bestaat als een klok met daarop 60 minuten. Het is 12 uur.
De eerste 50 minuten was hierop geen leven. Het is nu 10 minuten voor 1.
Om 10 minuten voor 1 onstond het eerste leven. Eencelligen, primitieve vissen en daarna de gehele evolutie zoals wij deze inmiddels kennen.
De laatste 1/100 ste van een seconde bestaat de mens!

In een ongehoord tempo zijn wij over deze planeet gezwermd en hebben wij de ene ontdekking na de andere gedaan. Met een exponentiële snelheid wel te verstaan. De laatste eeuw gaat de exponentiële groei echter óók met een exponentiele groei gepaard!

Is de volgende stap van civilisatie van deze planeet, een volledig nieuw fenomeen neer te zetten met de naam Artificial Intelligence?

Het is onvermijdelijk. We willen de sterren koloniseren, daarvoor is lichtsnelheid nodig. We willen door worm holes kruipen en kijken aan de achterkant van het heelal en het liefst nog in meer dan 3 dimensies. En het belangrijkste: we willen

onsterfelijkheid....

Laat dat nu net zijn waar we al miljarden jaren mee bezig zijn: "onszelf onsterfelijk maken"

We betalen alleen wel een prijs... We zullen het moeten opnemen tegen de technologie die we zélf gecreëerd hebben om dat mogelijk te maken.

Kunnen we die rekening betalen?

Verwijderd

Ik denk niet dat het onvermijdelijk is. Tijden van snelle vooruitgang kunnen worden afgewisseld worden met donkere tijden. Denk aan de middeleeuwen na het romeinse rijk. Ik denk ook dat de ontzettend snelle groei alleen zo door kan gaan als we onszelf en onze hersenen gaan aanpassen of onderzoek in handen geven van computers. Misschien kiezen we ervoor dit niet te doen.

  • Delerium
  • Registratie: Mei 2000
  • Niet online

Delerium

Mythology

Verwijderd schreef op 13 June 2003 @ 17:00:
Mijn mening:

Het is onvermeidelijk dat in 2025 onze zelf ontwikkelde machines, qua intelligentie ons meselijk brein evenaren.
Da's maar net de vraag. De kinderschoenen ontgroeien gaat erg snel, maar de vervolgstappen in de volwassen wereld gaat enorm traag. Om een PC-vergelijking te maken.... Wolfenstein kon door een stel amateurs in elkaar gezet worden. Deze amateurs konden vervolgens prima krachten aantrekken en zo ontstond Doom. Quake was het eerste megaproject van deze groep, waarna met veel moeite Quake2 werd gemaakt. Sinds Quake3 weten we dat ze al jaren bezig zijn met DoomIII. John Carack gaf al aan dat in die engine 60 manjaren gepropt is, dus de conclusie was dat een geavanceerde 3d-engine niet meer in een parkeergarage kan worden gemaakt. Naarmate een software-pakket complexer wordt, zie je dus dat er ook exponentiel meer moeite in gestopt worden.

Qua hardware zie je hetzelfde, specialistische bedrijven als Intel, nVidia en ook Ati zijn gewoon tientallen manjaren en miljoenen euro's verder voordat er een nieuwe generatie ontstaan is, die dan op machine's van miljarden per fabriek gemaakt moeten worden. Naarmate de complexiteit toeneemt, zal ook het specialisme toenemen en dus zal de ontwikkeling zelf exponentiel toenemen. Nu heb je een John Carmack, maar voor Doom6 oid zal je al bijna een universiteit moeten hebben die programmeurs van minimaal niveau John Carmack afleveren... niet echt waarschijnlijk. Waarschijnlijker is dat de exponentiele groei op den duur gewoon afvlakt en het niveau van serieuze complexiteit gewoon een verhaal van echte revolutie zal moeten worden ipv logische vervolg.
Spraakherkenning is momenteel ook nog amper begonnen.
Alleen, wat doet de technologie zelf? Neemt die technologie het dan niet van de mens over en worden wij dan niet de "onderhoudsmonteur" van ons eigen produkt? Zelfs daarin zijn we op een gegeven moment overbodig.
Niet realistisch. Een mens in elkaar zetten is simpel als wat, een biologisch artefact of zelfstandige machine het gevolg van een samenwerking van 100den wetenschappers die ieder hun eigen specialisme volledig moet inzetten. De machine zal daardoor qua complexiteit dermate duur zijn dat het toch altijd wel beperkt zal blijven qua hoeveelheden. En naarmate complexiteit van iets toeneemt, neemt ook de kans op fouten toe. En fouten maakt een machine of organisme afhankelijk van zijn onderhoudsmonteurs.
In een ongehoord tempo zijn wij over deze planeet gezwermd en hebben wij de ene ontdekking na de andere gedaan. Met een exponentiële snelheid wel te verstaan. De laatste eeuw gaat de exponentiële groei echter óók met een exponentiele groei gepaard!
In de westerse wereld is het nagenoeg stabiel: exponentiele groei vind alleen plaats onder optimale condities totdat de populatie deze optimale condities zelf belasten (tekort aan voedsel/ruimte/privacy bv)
Is de volgende stap van civilisatie van deze planeet, een volledig nieuw fenomeen neer te zetten met de naam Artificial Intelligence?
Goed mogelijk, maar ik denk dat het zeker onder de noemer aanvulling gaat vallen dan vervanger.

Het streven naar onsterfelijkheid zal iig niet belemmerd worden door machine's oid, de mens zelf blijft de grootste klootzak in zijn eigen bestaan. In de mens zitten nog steeds genen die dominantie, macht, voortplanting en agressie bevatten. Technologie wordt nog steeds door een kleine groep misbruikt om een dominante status te krijgen over de rest die het niet zo nauw neemt. Het "Survival of the fittest"principe zorgt in feite dat de meest agressieve deelnemers in een maatschappij komen bovendrijven en zich als leider positioneren. Zolang er meerdere leiders mogelijk zijn, zullen deze netto meer energie proppen in de bestrijding van elkaar ipv dezelfde energie in een mega-project waar de hele mensheid in verenigt moet worden. Star Trek achtige toestanden kan pas als iedereen samenwerkt, maar de makkelijkste weg is nog steeds misbruik.

Verwijderd

De poster 'wieikke' geeft al aan hoe ik hierover denk.

We willen graag zelf ook net zo geweldig worden als de superieure AI's die er gebouwd zullen worden. We zullen wel moeten mergen met onze technologie, omdat we de maatschappij anders niet meer bij zullen kunnen houden. Uiteindelijk zullen we onze biologische substraten compleet zat zijn, en laten we deze vervangen door nanobots, die er een efficienter systeem van maken.

Een stilstand waar wieikke over spreekt zullen we niet zien. Wanneer onderzoek naar nanotech/AI/etc wordt stilgezet, zullen straks enkel mensen met kwade bedoelingen beschikken over deze technologien.

Ik spreek hier dan wel over 'stilzetten', maar dit is eigenlijk onmogelijk. Je zou het hooguit ondergronds kunnen drukken. Maar daar kan je weer niet zien wat er gebeurt.

De enige optie voor dit soort technologien is dus: vooruit.

  • Arjan
  • Registratie: Juni 2001
  • Niet online

Arjan

copyright is wrong

Ik denk nog altijd, dat een écht intelligent leven niet gebaat is bij het uitroeien van anderen.
Vergeet niet dat wij veel van onze slechte kwaliteiten 'te danken' hebben aan ons menselijk onvermogen, en/of luiheid. Beide zijn niet gekend door een wezen dat gebaseerd is op pure ratio.

Als wij niet afhankelijk waren van geld, waren we dan nu de regenwouden aan het kappen?

Ik denk dat als er een AI komt, deze op logica gebaseerd is, het zal zelf inzien dat andere levensvormen niet uitgeroeid hoeven te worden om te kunnen overleven.

k denk dat we eerder Data zullen begroeten in de toekomst dan Lore ;)

oprecht vertrouwen wordt nooit geschaad


Verwijderd

Ecteinascidin schreef op 13 June 2003 @ 17:36:
Qua hardware zie je hetzelfde, specialistische bedrijven als Intel, nVidia en ook Ati zijn gewoon tientallen manjaren en miljoenen euro's verder voordat er een nieuwe generatie ontstaan is, die dan op machine's van miljarden per fabriek gemaakt moeten worden. Naarmate de complexiteit toeneemt, zal ook het specialisme toenemen en dus zal de ontwikkeling zelf exponentiel toenemen. Nu heb je een John Carmack, maar voor Doom6 oid zal je al bijna een universiteit moeten hebben die programmeurs van minimaal niveau John Carmack afleveren... niet echt waarschijnlijk. Waarschijnlijker is dat de exponentiele groei op den duur gewoon afvlakt en het niveau van serieuze complexiteit gewoon een verhaal van echte revolutie zal moeten worden ipv logische vervolg.
Dit is niet helemaal juist IMO. Game-coders staan natuurlijk onder steeds grotere druk om de mooiste, gaafste, en vetste game af te leveren. Ze maken daarom zelf de keus om te optimaliseren tot ze er bij neer vallen.

Maar..... zoals je ziet heeft het weinig zin om per model meer dan 5000 polygonen te gebruiken. Dit betekent dat, wanneer computers over meer dan genoeg snelheid beschikken, er niet meer geoptimaliseerd zal hoeven worden. De brute rekenkracht van de computer zelf zal er dan voor zorgen dat de wereld soepel draait.

Vanaf dat punt kun je dus vrij simpel een engine in elkaar draaien. Hidden surface removal? Waarom zou je... er wordt bij wijze van spreke toch niet meer dan 10% van m'n rekenkracht gebruikt.


Maar hee... als er toch nog zoveel rekenkracht over is, waarom gooien we er dan ook niet gelijk een stel complexe motion planning/AI/spraakherkenning/spraakgeneratie-routines in?

En vanaf dat punt herhaalt de geschiedenis zich op het gebied van MP/AI/spraak.


Overigens worden afvlakkende (= out of steam) exponentiele curves altijd aan elkaar geknoopt wanneer het volgende paradigm langskomt.
Spraakherkenning is momenteel ook nog amper begonnen.
Dat valt nog mee hoor. Op Kurzweil's site staat een leuk tabelletje waarin je een hele aardige exponentiele groei van spraakherkenning kunt zien. Ik weet echter niet meer welk artikel dat was...

  • Lord Daemon
  • Registratie: Februari 2000
  • Laatst online: 29-11 13:38

Lord Daemon

Die Seele die liebt

Als ik ergens een hekel aan heb zijn het transhumanisten, maar goed. Het hele verhaal van die singulariteit gelooft natuurlijk niemand; technologie ontwikkelt zich niet vanzelf, dat is mensenwerk, en mensen zijn niet zo flexibel dat ze een singulariteit kunnen bewerkstelligen. Dan zouden ze ineens oneindig snel dingen moeten gaan uitvinden.
Laat dat nu net zijn waar we al miljarden jaren mee bezig zijn: "onszelf onsterfelijk maken"

We betalen alleen wel een prijs... We zullen het moeten opnemen tegen de technologie die we zélf gecreëerd hebben om dat mogelijk te maken.
Ten tijde van de roemruchte 'W&L-essaywedstrijd' heb ik hier een essay over geschreven: Beklimming van de Olympos. Ik beargumenteer daarin dat de prijs voor onsterfelijkheid te hoog is om ooit te mogen betalen - en dat nog volledig afgezien van eventuele 'rebellerende technologie'.
If we continue along our current path, we create an immortal man which can control nature and will ultimately leave Earth, in order to control the Universe.
De meest ziekelijke zelfoverschatting en het meest verwerpelijke machtsdenken in 1 zin - ik vind het knap. Fijne lui.

[ Voor 16% gewijzigd door Lord Daemon op 13-06-2003 17:57 ]

Welch Schauspiel! Aber ach! ein Schauspiel nur!
Wo fass ich dich, unendliche Natur?


  • Rey Nemaattori
  • Registratie: November 2001
  • Laatst online: 04-11 15:00
Verwijderd schreef op 13 June 2003 @ 17:00:
Het is onvermeidelijk dat in 2025 onze zelf ontwikkelde machines, qua intelligentie ons meselijk brein evenaren. Wat er daarna gebeurd is de grote vraag. Kurzweil heeft het over een ongelooflijk snelle technologische vooruitgang waardoor slecht 5 tot 10 jaar later een systeem bestaat dat qua intelligentie zo geavanceerd is dat het het menselijk brein van alle mensen op de aardbol bij elkaar evenaard. Dit zal als een sneeuwbal effect werken op de civilisatie en in een aantal jaren zitten "wij" op de top van ons technologisch kunnen. Ongekende mogelijkheden, zoals hierboven in mijn quote al een aantal stonden, zullen dan tot de mogelijkheden behoren. Alleen, wat doet de technologie zelf? Neemt die technologie het dan niet van de mens over en worden wij dan niet de "onderhoudsmonteur" van ons eigen produkt? Zelfs daarin zijn we op een gegeven moment overbodig. De grondstoffen van de aarde hebben met onze hulp, ons minderwaardig gemaakt in een razendsnel tempo.

De meeste kennen het verhaal wel van de klok.
Zie de tijd dat de aarde bestaat als een klok met daarop 60 minuten. Het is 12 uur.
De eerste 50 minuten was hierop geen leven. Het is nu 10 minuten voor 1.
Om 10 minuten voor 1 onstond het eerste leven. Eencelligen, primitieve vissen en daarna de gehele evolutie zoals wij deze inmiddels kennen.
De laatste 1/100 ste van een seconde bestaat de mens!

In een ongehoord tempo zijn wij over deze planeet gezwermd en hebben wij de ene ontdekking na de andere gedaan. Met een exponentiële snelheid wel te verstaan. De laatste eeuw gaat de exponentiële groei echter óók met een exponentiele groei gepaard!

Is de volgende stap van civilisatie van deze planeet, een volledig nieuw fenomeen neer te zetten met de naam Artificial Intelligence?

Het is onvermijdelijk. We willen de sterren koloniseren, daarvoor is lichtsnelheid nodig. We willen door worm holes kruipen en kijken aan de achterkant van het heelal en het liefst nog in meer dan 3 dimensies. En het belangrijkste: we willen

onsterfelijkheid....

Laat dat nu net zijn waar we al miljarden jaren mee bezig zijn: "onszelf onsterfelijk maken"

We betalen alleen wel een prijs... We zullen het moeten opnemen tegen de technologie die we zélf gecreëerd hebben om dat mogelijk te maken.

Kunnen we die rekening betalen?
Technisch gezien, maken onze genen zichzelfstervelijk, door een continu "vernieuwings"proces, tegen woordig heet zoiets celdeling of geboorte. Door opnieuw te beginnen met een combinatie van voorgaande (DNA)strengen is het DNA instaat zich
A: constant te vernieuwen, als we te lang zouden leven zou schade aan ons dna ongewenste mutaties kunenn ondergaan, daarmee zouden de genen verloren kunnen gaan omdat het organisme niet meer(naar behoren) functioneert.
B: Aan te passen, in de loop van miljoenen jaren passen levensvormen zich aan aan hun omgeving, als een streng (nagenoeg) onsterfelijk zou zijn zou deze op een gegeven moment sterven
C verspreiding, hoe meer van een soort hoe beter, maar als ieder exemplaar niet door ouderdom zou sterven is overbevolking een issue en komt de HELE SOORT ingevaar.

Het voortplantings proces stelt een soort instaat zijn populatie te vernieuwen, zou een soort niet meer afsterven door natuurlijke oorzaken, dan verdwijnt daarmee eigenlijk de noodzaak tot voortplanten(anders overbevolking). Als dat stopt, komen de 3 factoren eerder beschreven in gevaar.

Er zijn al technieken ontwikkeld om zandwormen to 4x zo lang te laten leven, als we dit bij mensen doen dan lig de gem. leeftijd op een jaar of 250, voeg daar nog eens nanotechnoligie to en we kunnen onze leeftijd nog vele malen langer maken.

Als een persoon bijv. 1000 jaar oud word, vervalt de vereiste van sneller-dan-licht reizen, met huidige technologie zou men dan makkelijk tussen het zonne en cantauri stelsel op nog geen vier luchtjaar afstand heen en trug kunnen reizen(we zijn al in staat enige honderden km/s te bereiken dmv ionen raketten) en dan te bedenken dat onze voorstuwing technologie pas in de kinderschoenen staat, zaken als kernfusie(het geen we in de komende 20 jaar ZEKER aan de praat gaan krijgen) en antimaterie-raketten(we kunnen al antimaterie maken,alleen kost het meer enegie op het op te slaan dan dat het oplevenrt bij bijv. voort stuwing) zullen (en vooral samen) de propulsie techniek met een factor 10 tot misschien wel 100 verbeteren en versnellen, het geen betekent dan we in een jaar of 35-40 zo'n 8 lichtjaar af kunnen leggen. En wat is nou 40 jaar op de duizend? Net zoveel als vroeger de 1,5 - 2 jaar heen en terug naar het verre indie.

En mischien kunnen we over een jaar of 100 wél sneller of nabij lichtsnelheid vliegen. Zaken als huwelijk vervagen nu al, zou je egt 100'en jaren met dezelfde partner kunnen leven? Mischien worden samenlevings contracten voor 75 of 100jaar wel standaard(met optie tot verlenging) Wie weet.... wie weet...

Speks:The Hexagon Iks Twee Servertje

"When everything is allright,there is nothing left."Rey_Nemaattori


  • Rey Nemaattori
  • Registratie: November 2001
  • Laatst online: 04-11 15:00
Lord Daemon schreef op 13 June 2003 @ 17:52:
Als ik ergens een hekel aan heb zijn het transhumanisten, maar goed. Het hele verhaal van die singulariteit gelooft natuurlijk niemand; technologie ontwikkelt zich niet vanzelf, dat is mensenwerk, en mensen zijn niet zo flexibel dat ze een singulariteit kunnen bewerkstelligen. Dan zouden ze ineens oneindig snel dingen moeten gaan uitvinden.


[...]
Ten tijde van de roemruchte 'W&L-essaywedstrijd' heb ik hier een essay over geschreven: Beklimming van de Olympos. Ik beargumenteer daarin dat de prijs voor onsterfelijkheid te hoog is om ooit te mogen betalen - en dat nog volledig afgezien van eventuele 'rebellerende technologie'.


[...]
De meest ziekelijke zelfoverschatting en het meest verwerpelijke machtsdenken in 1 zin - ik vind het knap. Fijne lui.
WIJ ontwikkelen idd ZELF de technologie, maar dankzij snellere computers dan 40 jaar terug kunnen wij sneller simulaties draaien van zaken die vroeger als High-tech & State-of-the-Art werden beschouwd, voorspelling van het weer bijvoorbeeld.... We kunnen steeds langer & verder vooruit beredeneren wat het weer zal doem....

Uiteraard is onstervelijkheid zelfoverschatting, als je geplet word ga je evengoed dood, maar sterven door ouderdom kan en zal steeds verder worden uitgesteld, mishcien is er een grens, mischien zullen we duizenden jaren oud kunnen worden...
Atgast schreef op 13 June 2003 @ 17:46:
Ik denk nog altijd, dat een écht intelligent leven niet gebaat is bij het uitroeien van anderen.
Vergeet niet dat wij veel van onze slechte kwaliteiten 'te danken' hebben aan ons menselijk onvermogen, en/of luiheid. Beide zijn niet gekend door een wezen dat gebaseerd is op pure ratio.

Als wij niet afhankelijk waren van geld, waren we dan nu de regenwouden aan het kappen?

Ik denk dat als er een AI komt, deze op logica gebaseerd is, het zal zelf inzien dat andere levensvormen niet uitgeroeid hoeven te worden om te kunnen overleven.

k denk dat we eerder Data zullen begroeten in de toekomst dan Lore ;)
Echt intelligent leven? We noemen onszelf intelligent, en we roeien elkaar ook uit :S Maar wij hebben allerlei biologische zwakheden die we met ons meej dragen, vaak primitive instincten die ons nu nekken(obsessie voor macht & geld bijvoorbeeld)

[ Voor 28% gewijzigd door Rey Nemaattori op 13-06-2003 18:34 ]

Speks:The Hexagon Iks Twee Servertje

"When everything is allright,there is nothing left."Rey_Nemaattori


Verwijderd

Lord Daemon schreef op 13 juni 2003 @ 17:52:
Als ik ergens een hekel aan heb zijn het transhumanisten, maar goed.
Wat is er mis met het ontstijgen van je biologische lichaam? Het lichaam is toch slechts een tool? Een vrij beperkende ook nog.

We zijn niet op het land gebleven. We zijn niet aan de planeet gebleven. En we zullen niet bij onze eigen biologie blijven. Mensen houden nu eenmaal niet van limieten.

Heb je dan nooit de wens gehad om veel intelligenter te zijn? Veel sneller te kunnen denken, etc? Wil je dan geen brain-computer interface, zodat je nog veel meer documenten kunt schrijven dan je nu al doet?
Het hele verhaal van die singulariteit gelooft natuurlijk niemand; technologie ontwikkelt zich niet vanzelf, dat is mensenwerk, en mensen zijn niet zo flexibel dat ze een singulariteit kunnen bewerkstelligen. Dan zouden ze ineens oneindig snel dingen moeten gaan uitvinden.
Je begrijpt het idee achter de singulariteit niet helemaal. Het sleutel-element achter het ontstaan hiervan is een AI die human-level-cognition bereikt, en ons daarna vrijwel direct voorbij zal streven omdat deze AI op superieure hardware draait.

  • Confusion
  • Registratie: April 2001
  • Laatst online: 01-03-2024

Confusion

Fallen from grace

befrankt schreef:
There is no concise definition, but usually the Singularity is meant as a future time when societal, scientific and economic change is so fast we cannot even imagine
Wat in vredesnaam duidt erop dat kennis en verandering opeens sneller zullen gaan? Voorlopig neemt de productie van kennis nauwelijks meer dan lineair met het aantal mensen toe en neem de snelheid van verandering juist af door de grotere hoeveelheden mensen.

Leuk hoor, science fiction, maar om nu een van de vele varianten serieus te nemen is niets meer of minder dan geloven. Met wetenschap heeft deze speculatie niets te maken.

Wie trösten wir uns, die Mörder aller Mörder?


  • Delerium
  • Registratie: Mei 2000
  • Niet online

Delerium

Mythology

Verwijderd schreef op 13 June 2003 @ 18:38:
[...]
Wat is er mis met het ontstijgen van je biologische lichaam? Het lichaam is toch slechts een tool? Een vrij beperkende ook nog.
We zijn niet op het land gebleven. We zijn niet aan de planeet gebleven. En we zullen niet bij onze eigen biologie blijven. Mensen houden nu eenmaal niet van limieten.
'We' zijn de zee uit gezwommen als vis. Biologie bestaat nu eenmaal uit het zoeken naar een plek om je 'dingetje' te doen. En we zitten wel redelijk aan deze planeet gebonden ivm zwaartekracht.
Zo rond 1500 zie je overigens dat de mens zich niet meer verspreid ivm biologie maar meer wegens economie. Toen begonnen de stromen zich te verspreiden om luctratieve redenen zoals goud of specerijen. De ontdekking van de ruimtevaart is niets meer dan de lucratieve redenen zoals weervoorspellingen, communicatie enz enz. Om verder de ruimte in te gaan kom je a) op onbekend terrein en b) neemt het economische rendement af. Misschien dat er ooit een Iridium of Rhodium-mijn op Mercurius rendabel wordt, maar verder is ruimtevaart nogal verliesgevend (vandaar de enorme budget-cuts)

En sommige mensen houden niet van limieten. Dat zijn de mensen die graag onstervelijk willen worden en die daarvoor de geschiedenis in willen gaan als een 'naam' zoals de brandstichter van de tempel van Zeus (1 van de 7 wereldwonderen, ben alleen zijn naam kwijt) dat deed. De rest vind het al prima en heeft als enige streven om tot de dood gewoon gelukkig (getrouwd) te zijn.
Heb je dan nooit de wens gehad om veel intelligenter te zijn? Veel sneller te kunnen denken, etc? Wil je dan geen brain-computer interface, zodat je nog veel meer documenten kunt schrijven dan je nu al doet?
Oeeeef, asjeblieft niet zeg. Ik ruil mijn bestaan zo in voor iets met een IQ van 50, gelukzalig zijn de dommen.
Moet je eens nagaan, alleen de echte groten denken aan ideeen, de rest denkt aan afgeleiden daarvan of eigen gewin. Meestal komt het streven naar meer intelligentie neer op een andere manier om de macht te krijgen. Naarmate je slimmer wordt, wordt je iig ook steeds achterdochtiger en krijg je ook sneller complottheorien en dat soort meuk. Om over je ergernissen over de wereldpolitiek maar te zwijgen, want je machteloosheid wordt alleen maar tastbaarder.

[edit]
Singulariteit: zolang het alleen een idee is die door 1 persoon gefilosofeerd wordt, blijft het uitsluitend fictie.
Zolang de 'science' nog geen enkele energie of 4d-manipulatie heeft/kan uitvoeren, zal die 'science' er ook niet aan te passen komen. Het meeste is nog steeds gebaseerd op een transistor, stoommachine of verbrandingsmotor. Ik lees dus nog steeds houtje-touwtje toestanden en dus niets dat ooit een wormgat kan maken.

[ Voor 15% gewijzigd door Delerium op 13-06-2003 18:54 ]


  • Arjan
  • Registratie: Juni 2001
  • Niet online

Arjan

copyright is wrong

Rey Nemaattori schreef op 13 June 2003 @ 18:31:
[...]
Echt intelligent leven? We noemen onszelf intelligent, en we roeien elkaar ook uit :S Maar wij hebben allerlei biologische zwakheden die we met ons meej dragen, vaak primitive instincten die ons nu nekken(obsessie voor macht & geld bijvoorbeeld)
wijs was waarschijnlijk een betere woordkeuze geweest, maar ik vond het al vaag genoeg klinken ;)

oprecht vertrouwen wordt nooit geschaad


Verwijderd

Topicstarter
Fused schreef op 13 June 2003 @ 18:47:
[...]

Wat in vredesnaam duidt erop dat kennis en verandering opeens sneller zullen gaan? Voorlopig neemt de productie van kennis nauwelijks meer dan lineair met het aantal mensen toe en neem de snelheid van verandering juist af door de grotere hoeveelheden mensen.

Leuk hoor, science fiction, maar om nu een van de vele varianten serieus te nemen is niets meer of minder dan geloven. Met wetenschap heeft deze speculatie niets te maken.
De exponentiële groei van de exponentiële groei van kennis is wat daarop duidt.
ik hoef niet te vertellen dat dat zorgt voor een gigantische groei... nog veel groter dan de exponentiële groei die deze eeuw werd aangenomen.
Daar is uitgebreid onderzoek naar gedaan en op de link in mijn openingspost staat erg veel informatie en de grafieken erbij waaruit het af te leiden is.

  • Lord Daemon
  • Registratie: Februari 2000
  • Laatst online: 29-11 13:38

Lord Daemon

Die Seele die liebt

Rey Nemaattori schreef op 13 June 2003 @ 18:31:
WIJ ontwikkelen idd ZELF de technologie, maar dankzij snellere computers dan 40 jaar terug kunnen wij sneller simulaties draaien van zaken die vroeger als High-tech & State-of-the-Art werden beschouwd, voorspelling van het weer bijvoorbeeld.... We kunnen steeds langer & verder vooruit beredeneren wat het weer zal doem....
Nou, dat valt nogal tegen. Zoals je wellicht weet is het weer een chaotisch systeem, wat onder andere betekent dat exponentiele toename in voorspellende kracht slechts overeenkomt met lineaire toename in juistheid van de voorspellingen. Zelfs als we de halve wereld volplempen met meetapparatuur zullen we het weer nooit heel erg ver vooruit kunnen voorspellen - en daar helpt geen enkele computer aan. De meetonnauwkeurigheden breiden zich namelijk exponentieel snel als fouten uit door je model; dat heeft niets met rekenkracht te maken.

De kracht van computers wordt sowieso een beetje overschat, heb ik het idee. De meeste berekeningen zijn bewijsbaar niet uit te voeren op een computer; ieder op de computer geprogrammeerd formeel systeem (dat aan vrij losse voorwaarden voldoet) bevat ware uitspraken die het systeem niet kan bewijzen; het is zelfs niet mogelijk een porgramma te schrijven dat voor alle bestaande computerprogramma's kan bekijken of ze binnen eindige tijd een oplossing geven. Je kunt je afvragen of dit soort dingen belangrijk zijn voor technologische vernieuwing, maar in ieder geval is het goed je te realiseren dat computers lang niet alles kunnen berekenen: zowel bij voorspellende modellen over de wereld als bij fundamentele wiskunde.

Bovendien is het niet mogelijk een computerprogramma te schrijven waarvan je weet dat het een belangrijke ontdekking gaat doen, want dat kan je alleen van te voren zeker weten als je de ontdekking al hebt gedaan. Technologische explosie of niet, het is ondenkbaar dat er ooit een methode zal zijn om technologische innovatie door een computer (of een mens, for that matter) af te dwingen - hoe slim je ook bent. Het idee dat er een computerprogramma kan bestaan dat een burter computerprogramma schrijft, dat dan weer een bruter computerprogramma schrijft... etcetera... is onzinnig, simpelweg omdat het alle programma's OF moeten weten naar welk eindresultaat ze toe werken - en dan gebeurt er niets - OF bizar veel geluk moeten hebben. Zonder voorkennis kunnen ze namelijk niet checken of ze iets goeds aan het programmeren zijn.

Welch Schauspiel! Aber ach! ein Schauspiel nur!
Wo fass ich dich, unendliche Natur?


  • Delerium
  • Registratie: Mei 2000
  • Niet online

Delerium

Mythology

Verwijderd schreef op 13 June 2003 @ 18:55:
[...]
De exponentiële groei van de exponentiële groei van kennis is wat daarop duidt.
ik hoef niet te vertellen dat dat zorgt voor een gigantische groei... nog veel groter dan de exponentiële groei die deze eeuw werd aangenomen.
Je overschat de wetenschap .... veel te veel.

Verwijderd

Topicstarter
Ecteinascidin schreef op 13 June 2003 @ 18:50:
[...]

Oeeeef, asjeblieft niet zeg. Ik ruil mijn bestaan zo in voor iets met een IQ van 50, gelukzalig zijn de dommen.
Maar als over 20 jaar je kinderen eten moeten hebben en je geen werk hebt omdat je weigert iets aan je intelligentie te doen?

Je móet op een gegeven moment wel mee.

Begrijp me goed, ik deel je mening als het op het tweaken van mijn lichaam aan komt, vreselijk, maar als ik straks een gezin te onderhouden heb en geen werk kan krijgen... mijn vrienden niet begrijp... enz...

Het kapitalisme draaft wel door hoor. Als Intel een snellere processor maakt, denkt de directie echt niet... och jee... dat is iets teveel van het goede...

Nee, GELD GELD GELD
Singulariteit: zolang het alleen een idee is die door 1 persoon gefilosofeerd wordt, blijft het uitsluitend fictie.
Zolang de 'science' nog geen enkele energie of 4d-manipulatie heeft/kan uitvoeren, zal die 'science' er ook niet aan te passen komen. Het meeste is nog steeds gebaseerd op een transistor, stoommachine of verbrandingsmotor. Ik lees dus nog steeds houtje-touwtje toestanden en dus niets dat ooit een wormgat kan maken.
Het is een begrip. Geen idee. Ik herinner me nog je gevoel voor theorieën van een ander topic :) Dit is er een.

Verwijderd

Topicstarter
Lord Daemon schreef op 13 juni 2003 @ 19:00:
Het idee dat er een computerprogramma kan bestaan dat een burter computerprogramma schrijft, dat dan weer een bruter computerprogramma schrijft... etcetera... is onzinnig, simpelweg omdat het alle programma's OF moeten weten naar welk eindresultaat ze toe werken - en dan gebeurt er niets - OF bizar veel geluk moeten hebben. Zonder voorkennis kunnen ze namelijk niet checken of ze iets goeds aan het programmeren zijn.
En dáár is Artificial Intelligence voor nodig. Wat dat inhoud? Precies, dat je computer hetzelfde kan, zelf meer en 100en keren sneller als een programmeur. Stel je voor: de code binnen een paar seconden zonder syntaxisfouten en dergelijke, op de meest effectieve manier.

AI... Iets dat eraan komt en de belangrijkste bijdrage aan de Singulariteit wordt aldus mijn citaat.

  • Lord Daemon
  • Registratie: Februari 2000
  • Laatst online: 29-11 13:38

Lord Daemon

Die Seele die liebt

Verwijderd schreef op 13 June 2003 @ 18:38:
Wat is er mis met het ontstijgen van je biologische lichaam? Het lichaam is toch slechts een tool? Een vrij beperkende ook nog.
Een tool waarvoor, als ik vragen mag? Ik ben mijn lichaam - hoe zou het een tool kunnen zijn? Moet ik mezelf dan als tool zien? Kant zei ooit dat de basis van de moraliteit is dat je alle andere mensen nooit alleen als middel, maar altijd ook als doel ziet. Dat schijnt in onze tijd uit te zijn (helaas), maar zelfs jezelf niet meer als doel zien vind ik wel een erg vreemd andere uiterste.
We zijn niet op het land gebleven. We zijn niet aan de planeet gebleven. En we zullen niet bij onze eigen biologie blijven. Mensen houden nu eenmaal niet van limieten.
Mensen houden echt wel van limieten - geloof me, als ineens alle limieten om jou heen zouden wegvallen zou je volslagen waanzinnig worden. Dat bedoel ik overigens volstrekt serieus.
Heb je dan nooit de wens gehad om veel intelligenter te zijn? Veel sneller te kunnen denken, etc? Wil je dan geen brain-computer interface, zodat je nog veel meer documenten kunt schrijven dan je nu al doet?
Heb je dan nooit de wens om niet meer jezelf te zijn? Nee, eigenlijk niet. Zie overigens het essay waar ik net naar linkte voor mijn redenen om te ageren tegen de zoektocht naar de onsterfelijkheid.

Als ik het goed begrijp moet ik allerlei dubieuze voordelen - zoals intelligenter zijn - aanvaarden als redenen om de mens te vernietigen? Ik zie volstrekt geen reden om te denken dat de situatie na afloop van deze transhumanisatie mooier zal zijn dan die ervoor. Met verhaaltjes over dat ik dan meer macht of meer genot zal hebben kan je mij niet overtuigen - dat zijn nogal inadequate redenen om een ethische beslissing van kosmische proporties op te baseren.

Transhumanisten zijn mensen die de schoonheid van de wereld niet kunnen inzien, en dan maar een absurd vooruitgangsgeloof aan gaan hangen in de op niets gebaseerde overtuiging dat die vooruitgang tot meer schoonheid zal leiden. Het lijkt me ontzettend veel nuttiger om eens te leren het leven zoals het is te waarderen, in plaats van altijd maar de moderne drang naar 'meer, meer, meer' achterna te hollen.
Je begrijpt het idee achter de singulariteit niet helemaal. Het sleutel-element achter het ontstaan hiervan is een AI die human-level-cognition bereikt, en ons daarna vrijwel direct voorbij zal streven omdat deze AI op superieure hardware draait.
Zie hierboven voor het bewijs dat dit niet tot een singulariteit zal leiden.

Welch Schauspiel! Aber ach! ein Schauspiel nur!
Wo fass ich dich, unendliche Natur?


Verwijderd

Ecteinascidin schreef op 13 juni 2003 @ 18:50:
[...]

En sommige mensen houden niet van limieten. Dat zijn de mensen die graag onstervelijk willen worden en die daarvoor de geschiedenis in willen gaan als een 'naam' zoals de brandstichter van de tempel van Zeus (1 van de 7 wereldwonderen, ben alleen zijn naam kwijt) dat deed.
Ik wil niet te elitair overkomen, maar ik zou graag (o.a.) onsterfelijk willen worden, en kennis direct kunnen downloaden in m'n hoofd, om vervolgens mee te werken als een van de groten aan het verbeteren van de maatschappij.

Op wat voor manier ben ik dan een naamloze brandstichter aan iemands tempel? Deel je Lord Daemon's visie soms, waarin hij stelt dat een onsterfelijke een hele resem aan mensen ontneemt van het geboren worden?

Ik ben zelf momenteel nog sterfelijk, maar ook niet van plan om kinderen te nemen. Moet ik nu ook aan de schandpaal genageld worden?

De passie die Lord Daemon heeft met betrekking tot zijn visie, is bewonderenswaardig. Maar in zijn Olympus-document gaat hij slechts uit van 1 ontwikkeling, en dat is biologische onsterfelijkheid. Mits dit scenario daadwerkelijk uit zou komen, zou er inderdaad een probleem zijn. Maar dit gebeurt uiteraard niet. Fysieke onsterfelijkheid is alleen mogelijk in een maatschappij waar vele takken van de wetenschap tot grote hoogte klimmen. Fysieke onsterfelijk kan niet anders zijn dan een produkt van exponentiele groeiende, samenkomende wetenschapstakken.

Dit impliceert dus direct dat er naast fysieke onsterfelijkheid nog vele andere technologien zijn, op het moment dat fysieke onsterfelijkheid binnen handbereik is. Het beeld dat Lord Daemon in zijn document schetst, is dus onrealistisch.
Oeeeef, asjeblieft niet zeg. Ik ruil mijn bestaan zo in voor iets met een IQ van 50, gelukzalig zijn de dommen.
Ja, ik snap wat je bedoelt. We hebben hier te maken met conflicting demands:

- Knowledge is power

- Ignorance is bliss

Maar zou je echt terugschakelen naar een iq van 50 als je de kans had?

Oh sure... ik zou best wel weer eens met kleine kinder-ogen naar videogames willen kijken. Videogames spelen als 14-jarige zijnde is immers een stuk leuker dan sex hebben als 24-jarige. Maar aan de andere kant... als ik eens terugdenk aan de oerstomme argumenten die ik als tiener verzon in al evenzo zinloze discussie's...

Doe mij dan toch maar een stijgende intelligentie. Ik ga er maar van uit dat intelligent worden een kwestie is van 'even door de zure appel heenbijten'. Wellicht zal ik ooit nog een intelligentie-vereisend genot kennen dat vergelijkbaar is met het spelen van videogames op de leeftijd van 14.
Moet je eens nagaan, alleen de echte groten denken aan ideeen, de rest denkt aan afgeleiden daarvan of eigen gewin. Meestal komt het streven naar meer intelligentie neer op een andere manier om de macht te krijgen.
Weet je, ik spreek geregeld mensen die 'gewoon' en/of 'normaal' zijn, min of meer zoals Lord Daemon ze beschrijft in z'n document. En mijn ervaring is zo dat juist deze mensen eigenlijk helemaal niks geven om transhumanisme. IMO is dat omdat ze de mogelijkheden niet beseffen en/of te lui zijn om zichzelf te ontwikkelen.

Wellicht is er hier en daar ook nog een uitgerangeerd porno-sterretje die het idee krijgt dat het wel eens leuk zou zijn om haar glorie-jaren nog eens dunnetjes over te doen in een nieuw, jong lichaam. Afijn... dat meiske wipt er dan nog eens stevig op los voor zo lang als ze wilt. Maar als zij niet besluit te ontwikkelen, maar in plaats daarvan stagneert op een porno-set, dan zal ook dit nietsbetekende porno-sterretje besluiten om zichzelf te laten sterven, vermoed ik.
Naarmate je slimmer wordt, wordt je iig ook steeds achterdochtiger en krijg je ook sneller complottheorien en dat soort meuk.
Daar heb ik totaal geen last van. Niet toen ik 14 was, en niet nu ik 24 ben en bijna m'n Uni rond heb.
Om over je ergernissen over de wereldpolitiek maar te zwijgen, want je machteloosheid wordt alleen maar tastbaarder.
Politiek is alweer zoiets waar ik mijzelf totaal niet mee bezig houd.

Aan de andere kant snap ik wel wat je bedoelt natuurlijk: domheid wordt steeds moeilijker om aan te zien wanneer je het zelf ontstegen hebt.

Hier is echter een remedie voor. Je kunt jezelf op gezonde manier afsluiten van de rest van de wereld. In principe heb je het nieuws, de krant, of het Internet niet nodig om te overleven. Het kan zelfs stressverwekkend zijn om al deze informatie tot je te nemen. Onze bandbreedte is nu eenmaal gelimiteerd.

Zolang je deze limieten hebt, doe je er in sommige gevallen beter aan om de massale informatiestromen zichzelf te laten zijn.

/me is in elk geval een stuk gelukkiger sinds hij een aantal dagelijkse site-checks heeft afgezworen.

:)

  • Lord Daemon
  • Registratie: Februari 2000
  • Laatst online: 29-11 13:38

Lord Daemon

Die Seele die liebt

Verwijderd schreef op 13 June 2003 @ 19:03:
Je móet op een gegeven moment wel mee.
Of de strijd aangaan. Mijn huidige standpunt is dat wanneer mensen zich gaan laten uploaden het een morele noodzakelijkheid is de stekker uit hen te trekken.
Verwijderd schreef op 13 June 2003 @ 19:08:
En dáár is Artificial Intelligence voor nodig. Wat dat inhoud? Precies, dat je computer hetzelfde kan, zelf meer en 100en keren sneller als een programmeur. Stel je voor: de code binnen een paar seconden zonder syntaxisfouten en dergelijke, op de meest effectieve manier.
Nee, je begrijpt het niet, geloof ik. Het is niet mogelijk een programma te schrijven waarvan je kan voorspellen dat het een nog beter programma gaat schrijven; het is dus ook niet mogelijk een AI te schrijven waarvan je weet dat hij een nog betere AI gaat schrijven. Als je van programma A namelijk kan voorspellen dat het programma B gaat maken, dat beter is dan A, heb je meteen al de noodzakelijke kennis om meteen B te schrijven - anders kan je het helemaal niet voorspellen. Dat is een hele leuke paradox: je kan een radicale technologische innovatie niet voorspellen, omdat die voorspelling impliceert dat je de innovatie al hebt uitgevonden. Niemand had de ontdekking van het wiel kunnen voorspellen, omdat zeggen "Binnenkort zal het wiel uitgevonden worden" zelf al impliceert dat je het wiel hebt uitgevonden. (Anders heeft het begrip 'wiel' namelijk geen betekenis.)

Welch Schauspiel! Aber ach! ein Schauspiel nur!
Wo fass ich dich, unendliche Natur?


Verwijderd

Lord Daemon schreef op 13 June 2003 @ 19:09:
[...]
Een tool waarvoor, als ik vragen mag? Ik ben mijn lichaam - hoe zou het een tool kunnen zijn? Moet ik mezelf dan als tool zien? Kant zei ooit dat de basis van de moraliteit is dat je alle andere mensen nooit alleen als middel, maar altijd ook als doel ziet. Dat schijnt in onze tijd uit te zijn (helaas), maar zelfs jezelf niet meer als doel zien vind ik wel een erg vreemd andere uiterste.
Je bent je lichaam?

Dit zou betekenen dat, wanneer je een hand verliest en deze vervangt door een ijzeren haak, je ineens een compleet anders persoon zou zijn.

Zoals je waarschijnlijk met me eens bent, schuilt iemands persoon in zijn hersenen. De rest van het lichaam mag daarom sowieso als tool worden beschouwd, omdat vervanging hiervan niet leidt tot een verandering in de hersenen.

En dan de hersenen zelf. Twee jaar van nu besta je uit een compleet andere set moleculen dan je nu doet. Je zult metafysisch gezien een ander persoon zijn. Maar toch zullen je naasten je blijven zien als jouzelf.

De complete vervanging van je lichaam en hersenen leidt tot eenzelfde soort scenario: je bestaat na vervanging uit een andere set moleculen. Het is echter wel de bedoeling dat je unieke bewustzijnsstroom intact blijft, uiteraard.

Zodoende zie ik het lichaam als een tool.
Mensen houden echt wel van limieten - geloof me, als ineens alle limieten om jou heen zouden wegvallen zou je volslagen waanzinnig worden. Dat bedoel ik overigens volstrekt serieus.
Over welke limieten heb je het dan?

In dat geval heb je het over limieten die we zelf mogen kiezen. Als jij zegt dat mensen van limieten houden, geloof ik je gelijk. Ik zal deze limieten dan ook gewoon aan blijven houden.

Ondertussen zijn er meer dan zat limieten waar ik absoluut niet blij mee ben.
Heb je dan nooit de wens om niet meer jezelf te zijn? Nee, eigenlijk niet. Zie overigens het essay waar ik net naar linkte voor mijn redenen om te ageren tegen de zoektocht naar de onsterfelijkheid.
Niet meer jezelf zijn?

Mensen veranderen continu. Als je mij vergelijkt met de persoon die ik enkele jaren geleden was, zul je zien dat ik compleet anders ben.

Wie of wat is jezelf?

Ga ik verloren als ik nanobots in mijn hersenen heb die me sneller helpen denken?
Als ik het goed begrijp moet ik allerlei dubieuze voordelen - zoals intelligenter zijn - aanvaarden als redenen om de mens te vernietigen?
[...]
Ik zie volstrekt geen reden om te denken dat de situatie na afloop van deze transhumanisatie mooier zal zijn dan die ervoor. Met verhaaltjes over dat ik dan meer macht of meer genot zal hebben kan je mij niet overtuigen - dat zijn nogal inadequate redenen om een ethische beslissing van kosmische proporties op te baseren.
Dus als ik het goed begrijp, kies je voor the greater good, in plaats van toe te geven aan eigen, egoistische lusten?

Ik begrijp niet wat voor ethische beslissingen van kosmische proporties je ziet.
Transhumanisten zijn mensen die de schoonheid van de wereld niet kunnen inzien, en dan maar een absurd vooruitgangsgeloof aan gaan hangen in de op niets gebaseerde overtuiging dat die vooruitgang tot meer schoonheid zal leiden. Het lijkt me ontzettend veel nuttiger om eens te leren het leven zoals het is te waarderen, in plaats van altijd maar de moderne drang naar 'meer, meer, meer' achterna te hollen.
[...]
Zie hierboven voor het bewijs dat dit niet tot een singulariteit zal leiden.
Dat komt omdat wat ik beschreef de Singulariteit is.

Maar over welk bewijs heb je het?

Verwijderd

Lord Daemon schreef op 13 June 2003 @ 19:15:
Nee, je begrijpt het niet, geloof ik. Het is niet mogelijk een programma te schrijven waarvan je kan voorspellen dat het een nog beter programma gaat schrijven; het is dus ook niet mogelijk een AI te schrijven waarvan je weet dat hij een nog betere AI gaat schrijven. Als je van programma A namelijk kan voorspellen dat het programma B gaat maken, dat beter is dan A, heb je meteen al de noodzakelijke kennis om meteen B te schrijven - anders kan je het helemaal niet voorspellen. Dat is een hele leuke paradox: je kan een radicale technologische innovatie niet voorspellen, omdat die voorspelling impliceert dat je de innovatie al hebt uitgevonden. Niemand had de ontdekking van het wiel kunnen voorspellen, omdat zeggen "Binnenkort zal het wiel uitgevonden worden" zelf al impliceert dat je het wiel hebt uitgevonden. (Anders heeft het begrip 'wiel' namelijk geen betekenis.)
Hier stel je dat radicale uitvindingen met benaming en gedetailleerde omschrijving en al niet voorspeld kunnen worden. Dat klopt natuurlijk. Maar dat is natuurlijk ook niet de bedoeling van futurologen.

Mensen zijn slecht in koffiedik kijken. Maar naarmate je dichterbij een bepaald doel komt, wordt je blurry sight wel steeds helderder. Wat programma B wordt, weet niemand. Een voorspelling ervan zou je dus niet kunnen maken. Maar wanneer je een superieure AI, die enkele orders of magnitude sneller denkt dan wij, aan het kennis-assimileren en AI-ontwikkelen laat... dan is het nogal aannemelijk dat hij op de proppen gaat komen met iets superieurs.

Ik zie echt niet in hoe het anders kan, wanneer je over elke byte kennis beschikt, en in 1 seconde kunt denken wat de mensheid vanaf dit punt tot aan het begin van zijn bestaan heeft gedacht.

Verwijderd

Toevoeging:

Een ander punt in Lord Daemon's document waar ik het niet mee eens ben, is het volgende:

Hij stelt dat ik, als ik onsterfelijk wordt en zo het bestaan van mijn nakomeling in de kiem smoor, ik deze wereld wellicht onthoudt van eventuele Einsteins, Kants, Newtons, etc.

Dit is echter een irrationele angst. Zoals al eerder is besproken, wordt het overgrote deel van de mensheid gevormd door de 'gewonen' die nauwelijk iets bijdragen. De groten, zoals Lord Daemon ze noemt, doen dit wel. Maar dit zijn er maar bijster weinig. Wat is de kans dat mijn afstammelingen zichzelf tot een nieuwe Einstein, Kant, Newton, etc. zullen ontpoppen?

Met het vervangen van m'n biologische hersenen door een superieur stel hersenen, kan een normale jongen als ik zelf de nieuwe Einstein/Plato/Kant/Van Gogh/Newton/Da Vinci/Tesla worden. Mocht ik ooit over een soortgelijke intelligentie beschikken, dan ga ik mezelf hier niet mee opsluiten in een muf kamertje om de nieuwste online shooter te spelen. Reken maar dat de maatschappij van mij zou profiteren.

En met mij nog vele anderen, als het aan mij zou liggen.

Ooit het gevoel gehad dat je slimmer aan het worden was dan je eigen vrienden, en dat dat ervoor gezorgd heeft dat ze niet meer met je kunnen meediscussieren op niveau?

Verschrikkelijk is dat, om op die manier van je vrienden te verwateren. Dit waren personen waar je om gaf, en met het klimmen der jaren, ga je jezelf ergeren aan ze omdat ze je niet meer kunnen bevatten.

Het afstand kweken van m'n eigen moeder (en tot op zekere hoogte m'n broertje) vind ik nog veel erger. Dit is dus m'n bloedeigen moeder waar we het over hebben, die nooit een kans heeft gehad om een mooie studie te doen. Verschrikkelijk om aan te zien vind ik dat.

Lagen intelligentie-upgrades maar alvast in de winkel...

*zucht*

  • Confusion
  • Registratie: April 2001
  • Laatst online: 01-03-2024

Confusion

Fallen from grace

befrankt schreef:
De exponentiële groei van de exponentiële groei van kennis is wat daarop duidt.
Die is er niet. Als jiij denkt van wel -> toon maar aan.
Daar is uitgebreid onderzoek naar gedaan en op de link in mijn openingspost staat erg veel informatie en de grafieken erbij waaruit het af te leiden is.
Ik zie geen grafieken.

Wie trösten wir uns, die Mörder aller Mörder?


Verwijderd

Hij doelt op de grafieken in het artikel The Law of Accelerating Returns.

  • Lord Daemon
  • Registratie: Februari 2000
  • Laatst online: 29-11 13:38

Lord Daemon

Die Seele die liebt

Verwijderd schreef op 13 juni 2003 @ 19:31:
Je bent je lichaam?

Dit zou betekenen dat, wanneer je een hand verliest en deze vervangt door een ijzeren haak, je ineens een compleet anders persoon zou zijn.
Het Louvre is een gebouw? Dat zou betekenen dat als ze ergens een muur doorbreken en er een serre aanbouwen, het Louvre ineens compleet anders is!

Die redenering gaat natuurlijk niet op, en voor de jouwe geldt hetzelfde. Ik ben mijn lichaam, ik zou niet weten wat ik anders was. Dat wil niet zeggen dat ik ineens totaal iemand anders ben als ik m'n hand kwijt raak.
Zoals je waarschijnlijk met me eens bent, schuilt iemands persoon in zijn hersenen. De rest van het lichaam mag daarom sowieso als tool worden beschouwd, omdat vervanging hiervan niet leidt tot een verandering in de hersenen.
Een beetje een vreemde beeldspraak, 'schuilen in', maar in grote lijnen is het heel waar dat mijn 'persoonlijkheid' vooral door dat deel van mij bepaald wordt dat mijn 'hersenen' heet. Waarom de rest van het lichaam dan een 'tool' wordt begrijp ik echter niet; alles buiten mijn persoonlijkheid om is per definitie een tool? Dat vind ik een hele vreemde alsook gevaarlijke manier van denken.
En dan de hersenen zelf. Twee jaar van nu besta je uit een compleet andere set moleculen dan je nu doet. Je zult metafysisch gezien een ander persoon zijn. Maar toch zullen je naasten je blijven zien als jouzelf.
Ze zullen mij blijven zien als mijzelf omdat de structuur van mijn hersenen grotendeels (maar gelukkig niet helemaal) hetzelfde blijft; met de vraag of de atomen hetzelfde zijn heeft dat erg weinig te maken.
De complete vervanging van je lichaam en hersenen leidt tot eenzelfde soort scenario: je bestaat na vervanging uit een andere set moleculen. Het is echter wel de bedoeling dat je unieke bewustzijnsstroom intact blijft, uiteraard.
Identiteit is een lastig iets. Stel dat ik me, om eens futurologisch te zijn, mezelf laat uploaden. Dan heb je dus ikzelf, mijn lichaam, en bovendien nog een stuk software waarvan gezegd wordt dat het dezelfde persoonlijkheid heeft als ik. Nu is het evident dat ik nog steeds ik ben; ik ben nauwelijks veranderd, hopelijk. Maar dat bewijst, lijkt me, meteen dat het stuk software niet mij is - want ik kan moeilijk zowel wel als niet mijn lichaam zijn. Eenzelfde redenatie kan het stuk software echter ophangen. Grappig, dat - en zo rijst de vraag of identiteit wel betekenisvol is.

Toch zal ik veel meer mezelf zijn dan dat dat stuk software mij is. Ik ben immers degene die zich niet alleen herinnert dat hij lang haar heeft, maar het ook voelt kriebelen in zijn nek. Ik ben degene die als ik het meisje zie waar ik verliefd op ben, dat voel in mijn buik. Enzovoorts - ik denk dat ik een stuk grotere claim heb op mijn identiteit dat het stuk software.

Als het stuk software besluit om mij te doden - mijn taak als lichaam zit er immers op - denk ik dat dat alleen valt te classificeren als een brute en immorele moord. Het lichaam is dus niet slechts een tool; het lichaam is op een hele reele wijze het Ik.
Over welke limieten heb je het dan?
O, alle. De limieten van jouw macht; de limieten van jouw mogelijke gedachten; de limieten van jouw wil; etcetera. Als je ineens alles kon, veel meer kon denken en kon willen dan je nu kan - ach, dan zou je in de waanzin vallen. Alles wat jou je identiteit geeft is een limiet - realiseer je dat goed.
Ondertussen zijn er meer dan zat limieten waar ik absoluut niet blij mee ben.
Geef eens wat voorbeelden? En is jouw blijheid de maatstaf van het goede?
Niet meer jezelf zijn?

Mensen veranderen continu. Als je mij vergelijkt met de persoon die ik enkele jaren geleden was, zul je zien dat ik compleet anders ben.

Wie of wat is jezelf?

Ga ik verloren als ik nanobots in mijn hersenen heb die me sneller helpen denken?
Grappig, dat je net vond dat mensen door de jaren heen hun identiteit behielden, en je dat nu niet meer vindt. :) Als jij sneller gaat denken - dwz, exact dezelfde gedachten hebt, maar dan binnen kortere tijd - zul je als persoon niet veranderen. Weet je wat er wel gebeurt? Het is ineens alsof je leeft in een vertraagde wereld, een wereld waarin alles langzamer gebeurt, waarin je lichaam als een slak reageert op je wil, waarin je perceptie tergend traag binnen komt. Je kan niet meer naar muziek luisteren, want het gaat te traag; het is te frustrerend om nog te spreken, want je mond beweegt veel langzamer dan je gedachten; alles wat gebeurt gebeurt zo langzaam dat je in de diepste verveling wegzakt. Jij liever dan ik.

Als je daadwerkelijk andere dingen gaat denken dan je anders zelf gedacht had; tja, dan heb je natuurlijk wel jezelf vernietigt, dat lijkt me evident.
Dus als ik het goed begrijp, kies je voor the greater good, in plaats van toe te geven aan eigen, egoistische lusten?
Dat sowieso; maar het niet automatisch toegeven aan mijn lusten hangt nog niet eens op het bestaan van mensen buiten mij. Schoonheid staat veel hoger in mijn vaandel dan genot.
Ik begrijp niet wat voor ethische beslissingen van kosmische proporties je ziet.
Jij ziet niet de implicaties voor de wereld als je de menselijke natuur volstrekt gaat veranderen? Grappig, en eerlijk gezegd ook een beetje ongeloofwaardig.
Maar over welk bewijs heb je het?
Dat van die computerprogramma's.

Welch Schauspiel! Aber ach! ein Schauspiel nur!
Wo fass ich dich, unendliche Natur?


  • Lord Daemon
  • Registratie: Februari 2000
  • Laatst online: 29-11 13:38

Lord Daemon

Die Seele die liebt

Verwijderd schreef op 13 juni 2003 @ 19:39:
Mensen zijn slecht in koffiedik kijken. Maar naarmate je dichterbij een bepaald doel komt, wordt je blurry sight wel steeds helderder. Wat programma B wordt, weet niemand. Een voorspelling ervan zou je dus niet kunnen maken. Maar wanneer je een superieure AI, die enkele orders of magnitude sneller denkt dan wij, aan het kennis-assimileren en AI-ontwikkelen laat... dan is het nogal aannemelijk dat hij op de proppen gaat komen met iets superieurs.
Och, is het niet eerder aannemelijk dat het programma waarmee hij op de proppen komt vervolgens oneindig lang door moet rekenen en nooit meer met iets komt. Dan check je toch van te voren of dat gebeurt? Helaas - dat kan niet. Waarschijnlijk komt hij zelfs zelf al nooit met een antwoord; wij kunnen namelijk ook niet checken of hij wel tot een antwoord zal komen, als hij superieus is aan ons. Sowieso zal deze AI niet in staat zijn dingen te bedenken die je er niet al als programmeur in hebt gestopt; tenzij je hem allerlei willekeurige programma's gaat laten uitproberen, maar dan krijg je weer het probleem dat het halting-probleem onoplosbaar is en je dus waarschijnlijk nooit output krijgt. Tja - blijft lastig.
Ik zie echt niet in hoe het anders kan, wanneer je over elke byte kennis beschikt, en in 1 seconde kunt denken wat de mensheid vanaf dit punt tot aan het begin van zijn bestaan heeft gedacht.
Ha! Net alsof kennis te vatten is in bytes?! En net alsof iemand ooit een AI zal kunnen schrijven die kan denken wat alle mensen ooit gedacht hebben? En als dat al lukt, dan heb je het meest neurotische, schizofrene en gevaarlijke object uit de geschiedenis van het heelal geschapen, ben ik bang.

Welch Schauspiel! Aber ach! ein Schauspiel nur!
Wo fass ich dich, unendliche Natur?


  • Lord Daemon
  • Registratie: Februari 2000
  • Laatst online: 29-11 13:38

Lord Daemon

Die Seele die liebt

Verwijderd schreef op 13 juni 2003 @ 20:02:
Lagen intelligentie-upgrades maar alvast in de winkel...

*zucht*
Maar Codin toch, maximale zelfontplooiing is veel belangrijker dan hoe goed je uiteindelijk bent. Ik vind dat jij mensen een groot onrecht aandoet indien je vindt dat wie geen Newton of Plato is, als mislukking of ongelukkige gekenschetst moet worden - ik weet niet of je dat vindt, vandaar de 'indien'. Als jouw vrienden minder intelligent zijn dan jij, is dat heel naar. Maar ik zie a priori niet in waarom het dan beter is als zij intelligenter worden ipv dat jij dommer wordt. Wees niet bang voor de tragische affirmatie van het onafwendbare, accepteer dat zo'n vriendschap gedoemd is, en zoek nieuwe vrienden. Er kan niet altijd gebeuren wat je wilt - ook al is dat voor de moderne mens schijnbaar lastig te verkroppen.

Ik heb het idee dat de basis van het transhumanisme ligt in de wil om volledig te kunnen bepalen wat er gebeurt met je eigen leven; dat je volledig autonoom wilt zijn tov de wereld. Maar dat lijkt me helemaal geen prijzenswaardig streven, en ik zou dan ook met luide stem willen verkondigen: Amor fati! Heb het Lot lief.

Welch Schauspiel! Aber ach! ein Schauspiel nur!
Wo fass ich dich, unendliche Natur?


Verwijderd

Lord Daemon schreef op 13 June 2003 @ 20:53:
[...]
Het Louvre is een gebouw? Dat zou betekenen dat als ze ergens een muur doorbreken en er een serre aanbouwen, het Louvre ineens compleet anders is!

Die redenering gaat natuurlijk niet op, en voor de jouwe geldt hetzelfde. Ik ben mijn lichaam, ik zou niet weten wat ik anders was. Dat wil niet zeggen dat ik ineens totaal iemand anders ben als ik m'n hand kwijt raak.
Eh... nee, het Louvre zou juist niet ineens een compleet ander gebouw zijn, net als dat jouw persoon niet verandert bij het verliezen van je hand.

En dit is dus juist een onderbouwing van mijn stelling.
Een beetje een vreemde beeldspraak, 'schuilen in', maar in grote lijnen is het heel waar dat mijn 'persoonlijkheid' vooral door dat deel van mij bepaald wordt dat mijn 'hersenen' heet. Waarom de rest van het lichaam dan een 'tool' wordt begrijp ik echter niet; alles buiten mijn persoonlijkheid om is per definitie een tool? Dat vind ik een hele vreemde alsook gevaarlijke manier van denken.
Ik denk dat je overdrijft. Wat zou het gevaar zijn?

Als ik mijn lichaam als tools beschouw, en er dus geen moeite mee heb om beschadigde delen ervan te vervangen door superieure delen, wat is daar dan het gevaar van?

Als je een koffiekopje laat vallen, koop je toch ook een vervangende?
Ze zullen mij blijven zien als mijzelf omdat de structuur van mijn hersenen grotendeels (maar gelukkig niet helemaal) hetzelfde blijft; met de vraag of de atomen hetzelfde zijn heeft dat erg weinig te maken.
Maar natuurlijk wel. Het is een argument voor de mogelijkheid om je wetware te vervangen door hardware, waarbij het dus ook de bedoeling is dat je unieke bewustzijnsstroom bewaard blijft.
Identiteit is een lastig iets. Stel dat ik me, om eens futurologisch te zijn, mezelf laat uploaden. Dan heb je dus ikzelf, mijn lichaam, en bovendien nog een stuk software waarvan gezegd wordt dat het dezelfde persoonlijkheid heeft als ik. Nu is het evident dat ik nog steeds ik ben; ik ben nauwelijks veranderd, hopelijk. Maar dat bewijst, lijkt me, meteen dat het stuk software niet mij is - want ik kan moeilijk zowel wel als niet mijn lichaam zijn. Eenzelfde redenatie kan het stuk software echter ophangen. Grappig, dat - en zo rijst de vraag of identiteit wel betekenisvol is.

Toch zal ik veel meer mezelf zijn dan dat dat stuk software mij is. Ik ben immers degene die zich niet alleen herinnert dat hij lang haar heeft, maar het ook voelt kriebelen in zijn nek. Ik ben degene die als ik het meisje zie waar ik verliefd op ben, dat voel in mijn buik. Enzovoorts - ik denk dat ik een stuk grotere claim heb op mijn identiteit dat het stuk software.
Ja, met dat probleem zijn transhumanisten bekend inderdaad. Maar het feit dat een kopie van jou (met een andere unieke bewustzijnsstroom) niet daadwerkelijk jou is, wil niet zeggen dat dit probleem nooit opgelost kan worden. En wie zegt dat je bewustzijn niet over meerdere lichamen verdeeld kan zijn? Wellicht is bewustzijn multiplexable. Niemand kan het zeggen. We weten er te weinig van af.
Als het stuk software besluit om mij te doden - mijn taak als lichaam zit er immers op - denk ik dat dat alleen valt te classificeren als een brute en immorele moord. Het lichaam is dus niet slechts een tool; het lichaam is op een hele reele wijze het Ik.
Je huidige stel hersenen zijn momenteel het substraat wat het bestaan van jouw unieke bewustzijnsstroom behuizing geeft. De rest van je lichaam is zonder meer een tool.
O, alle. De limieten van jouw macht; de limieten van jouw mogelijke gedachten; de limieten van jouw wil; etcetera. Als je ineens alles kon, veel meer kon denken en kon willen dan je nu kan - ach, dan zou je in de waanzin vallen.
Je spreekt erover als een Christen over den hemel... net alsof je het zelf al meegemaakt hebt. :)
Alles wat jou je identiteit geeft is een limiet - realiseer je dat goed.
Dat is een simpele observatie. Maar waarom zou je me op de mouw spelden mezelf dat te realiseren?

Ik heb geen problemen met limieten. Als ik ze maar zo kan instellen dat ze voor mij prettig zijn.
Geef eens wat voorbeelden? En is jouw blijheid de maatstaf van het goede?
Een limiet waar ik niet blij mee ben: de levensduur van de haarfollikels op m'n kop.

Mijn mening is geen maatstaf van het goede. Maar, omdat ik tegelijkertijd niet onderdoe voor welk ander mens dan ook, kan ik mijzelf best even gebruiken als boegbeeld voor wat deze maatschappij mankeert:

Vlak voor m'n 22e ontdekte ik heavy metal, en de gitaar. Ik besloot dat ik ook een langharige heavy metal bink wilde worden, net als die ruige gasten in de jaren tachtig. Ik benadruk even dat het uiterlijk hierbij voor mij erg belangrijk is.

Welnu... als ik besluit op m'n 22e levensjaar dat ik een nieuw image ga aanmeten, waarbij lang haar een vereiste is, dan heb ik dus een probleem als moeder natuur mij opzadelt met vroegtijdig haarverlies.

Nu slik ik inmiddels medicijnen tegen deze nare bende, en ze werken gelukkig goed. Ondertussen heeft deze kalings-bullcrap me wel enkele jaren van m'n leven gekost, in de zin dat het m'n gemoedstoestand om zeep geholpen heeft.

In principe vraag ik niet om een Singulariteit. Maar als ik tot op een respectabele leeftijd gewoon m'n haar kon houden, dan zou ik toch wel enorm in m'n sas zijn.

Nu is het wachten op HAIRMultiplication. Een geweldige methode om mensen hun haar weer terug te geven. De techniek werkt non-invasive, en stimuleert bestaande, slapende follikels in kale gebieden. Daar deze techniek non-invasive is, vind ik dat er hier gesproken mag worden van 's werelds eerste body-upgrade.

En ik kijk me er daar toch met smart naar uit!


Je doet net alsof ik de duivelse leider van onethische kosmische ingrepen ben. Maar alles wat ik wil is m'n haar, en nog wat kleine dingetjes. Ik wil simpelweg de eerste decennia van m'n leven vrijelijk kunnen beslissen wie, of wat ik ga worden.
Grappig, dat je net vond dat mensen door de jaren heen hun identiteit behielden, en je dat nu niet meer vindt. :)
Dit is gewoon een verkapte flame. Ik spreek mezelf niet tegen, ook niet als je twee zinnen van mij, die op het eerste gezicht tegensprekend lijken, copypaste.

Ik zou mezelf best uit willen leggen, maar dan had je het maar gewoon moeten vragen, zoals ik ook bij onduidelijkheden van jouw kant doe.
Als jij sneller gaat denken - dwz, exact dezelfde gedachten hebt, maar dan binnen kortere tijd - zul je als persoon niet veranderen. Weet je wat er wel gebeurt? Het is ineens alsof je leeft in een vertraagde wereld, een wereld waarin alles langzamer gebeurt, waarin je lichaam als een slak reageert op je wil, waarin je perceptie tergend traag binnen komt. Je kan niet meer naar muziek luisteren, want het gaat te traag; het is te frustrerend om nog te spreken, want je mond beweegt veel langzamer dan je gedachten; alles wat gebeurt gebeurt zo langzaam dat je in de diepste verveling wegzakt. Jij liever dan ik.
Dit is inderdaad een hel van jewelste. Maar hier ga je dus alweer uit van slechts 1 ontwikkeling.

Vul m'n nano-geheugen met MP3's, en dan speel ik ze wel voor mezelf af.
Als je daadwerkelijk andere dingen gaat denken dan je anders zelf gedacht had; tja, dan heb je natuurlijk wel jezelf vernietigt, dat lijkt me evident.
Ik denk momenteel hele andere dingen dan ik verwacht had toen ik 14 was.
Dat sowieso; maar het niet automatisch toegeven aan mijn lusten hangt nog niet eens op het bestaan van mensen buiten mij. Schoonheid staat veel hoger in mijn vaandel dan genot.
Eh..... ok.
Jij ziet niet de implicaties voor de wereld als je de menselijke natuur volstrekt gaat veranderen? Grappig, en eerlijk gezegd ook een beetje ongeloofwaardig.
Observeer ik daar nog een verkapte flame?

Ik ben wel grappig vandaag he? En ik doe er niet eens m'n best voor. Oh well...

Anyway: ik zie de implicaties, maar niet de onethische kosmische implicaties waar jij het over hebt. Als je het daarover hebt, denk ik aan een dystopische utopie. Ikzelf verkies vertrouwen te hebben in de mens. Mits er een Singulariteit mogelijk is, zullen wij hem utopisch kunnen maken.
Dat van die computerprogramma's.
Dat is geen bewijs, maar een hersenspinsel van jouzelf.

Verwijderd

*oeps*

[ Voor 100% gewijzigd door Verwijderd op 13-06-2003 21:32 ]


Verwijderd

Lord Daemon schreef op 13 juni 2003 @ 21:07:
Och, is het niet eerder aannemelijk dat het programma waarmee hij op de proppen komt vervolgens oneindig lang door moet rekenen en nooit meer met iets komt.
Waarom is dat aannemelijk?
Dan check je toch van te voren of dat gebeurt? Helaas - dat kan niet. Waarschijnlijk komt hij zelfs zelf al nooit met een antwoord; wij kunnen namelijk ook niet checken of hij wel tot een antwoord zal komen, als hij superieus is aan ons.
Daarom moet hij ook dusdanig vriendelijk en verlicht worden dat hij zo vriendelijk is om het ons te vertellen. En als we het niet kunnen bevatten, doe dan maar een hersen-upgrade.

www.singinst.org
Sowieso zal deze AI niet in staat zijn dingen te bedenken die je er niet al als programmeur in hebt gestopt; tenzij je hem allerlei willekeurige programma's gaat laten uitproberen, maar dan krijg je weer het probleem dat het halting-probleem onoplosbaar is en je dus waarschijnlijk nooit output krijgt. Tja - blijft lastig.
Nu blijf je hangen in wetenschappelijke redenaties. Screw het halting-probleem.

Een superieure intelligentie zal tot betere creaties komen dan wijzelf. Dat lijkt me evident.
Ha! Net alsof kennis te vatten is in bytes?!
De kennis waar ik het over heb is bevatbaar in bytes. Ik had namelijk gewoon documenten in gedachten.

Daarnaast spelen duurzame veranderingen in de hersenen een rol bij het aanmaken van herinneringen. Wie zegt dat deze niet uit te lezen en weg te schrijven zijn als files van en naar een harddisk? Ik houd maar een open mind.
En net alsof iemand ooit een AI zal kunnen schrijven die kan denken wat alle mensen ooit gedacht hebben? En als dat al lukt, dan heb je het meest neurotische, schizofrene en gevaarlijke object uit de geschiedenis van het heelal geschapen, ben ik bang.
Ik doelde hier niet op de daadwerkelijke inhoud van de gedachten, maar de snelheid van denken van de AI.

Verder hoeft de AI niet perse schizofreen te worden. Als hij maar een bandbreedte heeft die groot genoeg is om om te kunnen gaan met al zijn zwaar te verteren hersenspinsels.

Verwijderd

Gozer... ik respecteer je kennis en intelligentie, maar wil je zo vriendelijk zijn me niet te kleineren?

Overigens weet ik niet zeker of je het zo bedoelde, maar ja... ik zie geen smileys staan.
maximale zelfontplooiing is veel belangrijker dan hoe goed je uiteindelijk bent.
Dit is een argument pro-intelligentie-upgrades. :)
Ik vind dat jij mensen een groot onrecht aandoet indien je vindt dat wie geen Newton of Plato is, als mislukking of ongelukkige gekenschetst moet worden - ik weet niet of je dat vindt, vandaar de 'indien'.
Dat vind ik niet. Maar in jouw document las ik termen als 'groten' en 'gewonen'. Dus ik zat mezelf eigenlijk af te vragen hoe jij er zelf tegen aan keek.

Overigens zou de wereld zichzelf denk ik niet onterecht behandeld voelen in het geval dat jij en ik beiden neerkeken op non-Plato's. Niemand geeft om twee bikkelende UU-gasten op een wetenschapsforum. :)
Als jouw vrienden minder intelligent zijn dan jij, is dat heel naar. Maar ik zie a priori niet in waarom het dan beter is als zij intelligenter worden ipv dat jij dommer wordt.
Oh ik wel. Er is namelijk slechts 1 ding op aarde dat ik vrees, en dat is dommigheid.

Domheid zie ik als een bron van allerlei negatieve, levenskwaliteit-reducerende emoties, zoals jaloezie, etc.

Je ziet toch altijd wel dat, als mensen intelligenter worden, ze deze lamlendige oer-gevoelens vaker de baas kunnen.
Wees niet bang voor de tragische affirmatie van het onafwendbare, accepteer dat zo'n vriendschap gedoemd is, en zoek nieuwe vrienden. Er kan niet altijd gebeuren wat je wilt - ook al is dat voor de moderne mens schijnbaar lastig te verkroppen.
Bedankt voor het advies. :7
Ik heb het idee dat de basis van het transhumanisme ligt in de wil om volledig te kunnen bepalen wat er gebeurt met je eigen leven; dat je volledig autonoom wilt zijn tov de wereld. Maar dat lijkt me helemaal geen prijzenswaardig streven, en ik zou dan ook met luide stem willen verkondigen: Amor fati! Heb het Lot lief.
Gelijk heb je met die basis van transhumanisme.

Als jijzelf totaal geen brood ziet in transhumanisme, dan gis ik dat jij een volslagen bevredigende jeugd hebt gehad in je tienerjaren. Ik kan er naast zitten, maar ik gok het erop dat je totaal geen gezondheidsproblemen had, niet met overgewicht had te kampen, niet van je 17e tot aan je 18e verjaardag invalide was door een lullig teentje-uit-de-kom-waarbij-de-derde-operatie-pas-de-verlossende-was, en hell... iedereen die je oude icoon heeft gezien weet dat je geen haarverliesproblemen hebt...

Sommigen onder ons hebben die mazzel niet.

In m'n tienerjaren was ik nog dom, en had ik dus een fijne belevingswereld. Toen had ik pas echt van het leven kunnen genieten, ware het niet dat m'n lichaam me tegenhield in alles wat ik wilde doen.

Je begrijpt vast dat ik het een en ander in te halen heb. Misschien zou zelfs ik wel in alle vrede kunnen sterven als ik een decenniaatje lol kon trappen in een lichaam dat meewerkt met mijn streven. Maar vooralsnog wil ik dat verouderingsproces eventjes stil zien staan. Voor 1 keer in m'n leven zou ik mee willen maken, waar ik al van droomde toen ik nog geen 10 jaar oud was.

Moeder natuur gunt mij niet de haardos die ik wil. De voortschrijdende techniek blijkbaar wel. Zo gek is het niet dat ik richting transhumanisme gedreven ben. En zo zijn er wel meer.

Dat moet je respecteren, vind ik.

  • Lord Daemon
  • Registratie: Februari 2000
  • Laatst online: 29-11 13:38

Lord Daemon

Die Seele die liebt

Verwijderd schreef op 13 June 2003 @ 21:30 tweemaal dat ik hem flamede:
Niets is echter minder waar, ik gebruikte een stijlfiguur dat ik zelf volstrekt niet als vervelend ervaar. Met de nieuwe kennis die ik bezit omtrent het feit dat jij dat kennelijk wel doet, zal ik dit in het vervolg vermijden. Een goede sfeer is mijn belangrijkste doel in deze discussie. :)
Eh... nee, het Louvre zou juist niet ineens een compleet ander gebouw zijn, net als dat jouw persoon niet verandert bij het verliezen van je hand.

En dit is dus juist een onderbouwing van mijn stelling.
Uh? Ik zeg dat ik mijn lichaam ben, en jij trekt daaruit de conclusie dat ik fundamenteel verander als ik mijn hand verlies. Ik zeg naar analogie dat als het Louvre een gebouw is, het dan ook fundamenteel moet veranderen als het - zeg - een kapelletje verliest. De laatste redenatie is evident onjuist; de eerste dus ook: uit het feit dat ik mijn lichaam ben, volgt niet dat ik fundamenteel verander als ik mijn hand verlies. Het lijkt me dus dat ik jouw kritiek op mijn stelling dat ik mijn lichaam ben heb weerlegd?
Ik denk dat je overdrijft. Wat zou het gevaar zijn?
Als je alles als tools ziet, heeft niets meer een intrinsieke waarde. Alles heeft alleen nog een waarde voor zover het voor jou nuttig is. Ten eerste is dit al een zeer lelijk idee, dat je nergens meer waarde aan kan hechten; ten tweede is de stap naar de gedachte dat ook andere mensen slechts tools zijn, erg klein. Ik zeg niet dat jij die tweede stap maakt, maar hij ligt wel om de hoek.
Maar natuurlijk wel. Het is een argument voor de mogelijkheid om je wetware te vervangen door hardware, waarbij het dus ook de bedoeling is dat je unieke bewustzijnsstroom bewaard blijft.
Ik zeg niet dat onmogelijk is; maar ik zie totaal niet in hoe het feit dat het voor de hersenen niet uitmaakt uit welke individuele atomen ze bestaan (wat een logisch gevolg is van het feit dat atomen niet onderscheidbaar zijn) volgt dat de hersenen te simuleren zijn op een ander soort systeem? Ik bedoel, dat kan vast wel - ik zie het nog niet gebeuren de komende eeuw, maar dat is iets anders - maar waarom dit er een argument voor is ontgaat me.
Je spreekt erover als een Christen over den hemel... net alsof je het zelf al meegemaakt hebt. :)
Ik snap niet helemaal wat je hiermee wilt zeggen?
Ik heb geen problemen met limieten. Als ik ze maar zo kan instellen dat ze voor mij prettig zijn.
Huh? Een limiet die je zelf in kan stellen is geen limiet, maar vrijheid. Lijkt me. Ik snap niet wat je bedoelt.
Een limiet waar ik niet blij mee ben: de levensduur van de haarfollikels op m'n kop.
Even voor de zekerheid: vat het volgende niet als flame op, want dat is het niet. Echter, ik vind dit wel heel erg typerend voor de moderne kijk op het leven: als niet alles precies gaat zoals we het willen, is dat meteen onverteerbaar. Ik denk dat de mensheid veel gelukkiger zou kunnen worden wanneer ze minder tijd besteedde aan het proberen weg te nemen van obstakels - achter elke overwonnen limiet ligt immers weer een nieuwe - en zichzelf wat meer zou aanleren het lot te verdragen. Maar goed, dat is mijn mening. Wellicht wel een relevante indien je wilt begrijpen waarom ik mij tegen het transhumanisme keer.
Ik wil simpelweg de eerste decennia van m'n leven vrijelijk kunnen beslissen wie, of wat ik ga worden.
Maar dat kan niet! Al had je alle nano-implantaties die er maar bestonden, dan nog kon het niet. Wie of wat je gaat worden ligt besloten in wie of wat je bent; het is absurd te denken dat je dat zelf kan kiezen, want keuze impliceert identiteit. Het idee dat je kan kiezen wie je wordt is ten diepste incoherent. En geen enkele technologie gaat je daarbij helpen. Eerder is het zo dat technologie de mens altijd in staat zal stellen de 'gemakkelijke weg' te kiezen, die waarbij het minste 'negatieve' emoties optreden - het is maar helemaal de vraag of dat wenselijk is.
Ik denk momenteel hele andere dingen dan ik verwacht had toen ik 14 was.
Ongetwijfeld? Alleen - wat wil je daar mee zeggen? :?
Anyway: ik zie de implicaties, maar niet de onethische kosmische implicaties waar jij het over hebt. Als je het daarover hebt, denk ik aan een dystopische utopie. Ikzelf verkies vertrouwen te hebben in de mens. Mits er een Singulariteit mogelijk is, zullen wij hem utopisch kunnen maken.
Nu, de mogelijkheden dat de wereld van de transhumanisten een zieke dystopie is, lijkt me heel reeel. Zo komt hij in ieder geval wel op mij over.
Dat is geen bewijs, maar een hersenspinsel van jouzelf.
O. Dat lijkt me wel een niet eens zo verkapte flame, maar laten we daar niet op letten. Misschien dat je er inhoudelijk op zou kunnen reageren, want op dit moment ben ik nog niet overtuigd van mijn ongelijk.

Welch Schauspiel! Aber ach! ein Schauspiel nur!
Wo fass ich dich, unendliche Natur?


Verwijderd

Lord Daemon schreef op 13 June 2003 @ 21:55:
Niets is echter minder waar, ik gebruikte een stijlfiguur dat ik zelf volstrekt niet als vervelend ervaar. Met de nieuwe kennis die ik bezit omtrent het feit dat jij dat kennelijk wel doet, zal ik dit in het vervolg vermijden. Een goede sfeer is mijn belangrijkste doel in deze discussie. :)
Ja hoor, ik doe het wel.

...
Uh? Ik zeg dat ik mijn lichaam ben, en jij trekt daaruit de conclusie dat ik fundamenteel verander als ik mijn hand verlies. Ik zeg naar analogie dat als het Louvre een gebouw is, het dan ook fundamenteel moet veranderen als het - zeg - een kapelletje verliest. De laatste redenatie is evident onjuist; de eerste dus ook: uit het feit dat ik mijn lichaam ben, volgt niet dat ik fundamenteel verander als ik mijn hand verlies. Het lijkt me dus dat ik jouw kritiek op mijn stelling dat ik mijn lichaam ben heb weerlegd?
Je verandert niet als je je hand verliest. Je draait m'n bewering om.
Als je alles als tools ziet, heeft niets meer een intrinsieke waarde. Alles heeft alleen nog een waarde voor zover het voor jou nuttig is. Ten eerste is dit al een zeer lelijk idee, dat je nergens meer waarde aan kan hechten; ten tweede is de stap naar de gedachte dat ook andere mensen slechts tools zijn, erg klein. Ik zeg niet dat jij die tweede stap maakt, maar hij ligt wel om de hoek.
Nee. Mensen hebben een bewustzijn. In die zin verschillen ze compleet van inanimate objects.
Ik snap niet helemaal wat je hiermee wilt zeggen?
Blijkbaar vond ik dat je sprak over iets alsof je het al meegemaakt had, terwijl je het nog niet meegemaakt kon hebben.
Huh? Een limiet die je zelf in kan stellen is geen limiet, maar vrijheid. Lijkt me. Ik snap niet wat je bedoelt.
Zolang er maar een limiet is, worden we niet waanzinnig. :)

Waar ik dus op zou moeten letten met het vrijelijk verschuiven van limieten, is dat ik ze niet naar het oneindige schuif.
Even voor de zekerheid: vat het volgende niet als flame op, want dat is het niet. Echter, ik vind dit wel heel erg typerend voor de moderne kijk op het leven: als niet alles precies gaat zoals we het willen, is dat meteen onverteerbaar. Ik denk dat de mensheid veel gelukkiger zou kunnen worden wanneer ze minder tijd besteedde aan het proberen weg te nemen van obstakels - achter elke overwonnen limiet ligt immers weer een nieuwe - en zichzelf wat meer zou aanleren het lot te verdragen. Maar goed, dat is mijn mening. Wellicht wel een relevante indien je wilt begrijpen waarom ik mij tegen het transhumanisme keer.
Er zijn dingen waar ik prima mee om kan gaan. Dat ene jaartje waarin ik met een verminkte teen zat.... na vooruit... maar haarverlies is veel te mensonterend man. Dat kan je je niet voorstellen gewoon. Je verbrandt 35 kilo vet, en daar komen de inhammen al.

Please... ik kan veel hebben. Maar dit is inderdaad lastig te verteren.


Wat is er mis met het overwinnen van telkens nieuwe obstakels?

Dat is toch wat je je hele leven doet? Je wilt toch carriere maken, een leuke vriendin vinden, etc?

Het is mogelijk om op gezonde wijze om te gaan met het idee dat je een niet te winnen gevecht tegen een eindeloze hoeveelheid obstakels voert. Als je het goed doet, gaat je leefstandaard er namelijk wel op vooruit.

Ik denk dat Dr. Phil van Oprah dit zou bestempelen als een gezonde mentaliteit. :)
Maar dat kan niet! Al had je alle nano-implantaties die er maar bestonden, dan nog kon het niet. Wie of wat je gaat worden ligt besloten in wie of wat je bent; het is absurd te denken dat je dat zelf kan kiezen, want keuze impliceert identiteit.
Stel je nu dat we geen identiteit hebben?
Het idee dat je kan kiezen wie je wordt is ten diepste incoherent. En geen enkele technologie gaat je daarbij helpen.
Ik heb ook geen technologie nodig om gitaar te leren spelen, maar wel een lichaam dat me daartoe in staat stelt. Ik heb er bijvoorbeeld handen en armen voor nodig. En mits ik in een zittende positie verkeer, ook twee benen om de gitaar op te laten rusten.

De goden zij dank heb ik al mijn ledematen nog.

Nu nog even m'n haar terug, en ik heb het image, waar ik al sinds eeuwen van droom, te pakken.


Ik snap dus niet helemaal waarom jij van mening bent dat we niet kunnen kiezen wie we zijn. Mij gaat dat prima af namelijk. Vooral als techniek me een steuntje geeft.
Eerder is het zo dat technologie de mens altijd in staat zal stellen de 'gemakkelijke weg' te kiezen, die waarbij het minste 'negatieve' emoties optreden - het is maar helemaal de vraag of dat wenselijk is.
Je moet maar genoeg negatieve gevoelens hebben gehad om te kunnen bevatten dat dat inderdaad wenselijk is, denk ik.
Ongetwijfeld? Alleen - wat wil je daar mee zeggen? :?
Ik heb mijzelf hier niet mee vernietigd.
Nu, de mogelijkheden dat de wereld van de transhumanisten een zieke dystopie is, lijkt me heel reeel. Zo komt hij in ieder geval wel op mij over.
Eveneens zou er een utopie van gemaakt kunnen worden.

Transhumanisten zijn niet ziek. Het hele idee is juist dat je er op vooruit gaat.
O. Dat lijkt me wel een niet eens zo verkapte flame,
Niks hoor. Ik beweer alleen dat jij daar zo over denkt. Maar ik zie het niet als bewijs.
maar laten we daar niet op letten. Misschien dat je er inhoudelijk op zou kunnen reageren, want op dit moment ben ik nog niet overtuigd van mijn ongelijk.
Die computerprogramma's A en B? Daar had ik al inhoudelijk op gereageerd.

Het feit dat jij niet kan voorspellen wat voor technieken ik op mijn gitaar zal leren, wil niet zeggen dat ik deze technieken uberhaupt niet *kan* leren. Of ik de capaciteit heb, moet blijken. En als mij het niet lukt, zijn er nog miljoenen anderen gitaarspelers.

Op dezelfde manier zie ik niet in hoe je van te voren zou kunnen zeggen dat AI A geen superieur programma AI B kan schrijven.

  • Arjan
  • Registratie: Juni 2001
  • Niet online

Arjan

copyright is wrong

Deze mega lappen tekst en quotes maken reageren op deze thread een beetje lastig, maar ik wilde even inhaken op het volgende:
Lord Daemon schreef op 13 juni 2003 @ 19:00:
Het idee dat er een computerprogramma kan bestaan dat een burter computerprogramma schrijft, dat dan weer een bruter computerprogramma schrijft... etcetera... is onzinnig, simpelweg omdat het alle programma's OF moeten weten naar welk eindresultaat ze toe werken - en dan gebeurt er niets - OF bizar veel geluk moeten hebben. Zonder voorkennis kunnen ze namelijk niet checken of ze iets goeds aan het programmeren zijn.
Verbetering en vernieuwing zit net als bij de mens in het verbeteren van reeds bestaande programma's. Doordat het doel soms een beetje uit het oog verloren gaat worden programma's afgetakt, er ontstaan nieuwe programma's. Het is niet zo dat wij als mens ineens zoiets hebben van: zo laten wij eens even iets uitvinden wat het menselijk ras in de volgende stap van de evolutie brengt.

Om zelf geen voorbeeld te hoeven verzinnen val ik terug op een voorbeeld dat imo de gemiddelde tweaker-WL'r wel kent, Zefram Cochrane :)
Hij was een manier aant zoeken om geld te verdienen dmv een voorsstuwing systeem dat hij had bedacht. Dit leidde tot de interstelaire reizen die we kennen van de shows.

Grote ontdekkingen komen per toeval, zo wees ook de echte historie ons al vaker.
Die AI zal bezig zijn zichzelf te verbeteren, anders is t snel met em gedaan denk ik, zoals het bedrijf dat niet investeerd in vooruitgang.

Volgens mij is het hele AI gebeuren ook niks meer dan een versnelling van wat al eeuwen gaande is, maar wij gaan het in deze hoedanigheid misschien idd niet meer bijbenen :)

oprecht vertrouwen wordt nooit geschaad


  • Brent
  • Registratie: September 2001
  • Nu online
Even over de vraag of technologie uberhaupt intelligent kan worden (programma schrijven die programma's schrijven etc.).

Het menselijk brein wat tot nu toe verantwoordlijk is voor alle technologie en wat ook programma's kan schrijven, is in feite ook (een verschrikkelijk) geavanceerd programma. Een brein is niet meer dan een klomp schakelingen, maar dan ik-weet-niet-hoeveel-triljarden schakelingen groot. Als in de natuur uit een paar toevallig gevormde aminozuren leven zoals de mens onstaat, lijkt me het gewoon een kwestie van tijd voordat programma's programma's schrijven. Ik vind de termijn van hierboven wel wat erg kort; 2025 lijkt me echt wat te vroeg. Misschien duurt het nog 3 miljard jaar, maar het lijkt me iig niet onmogelijk.

Correct me if I'm wrong.

[ Voor 9% gewijzigd door Brent op 13-06-2003 22:46 ]

Humanist | Kernpower! | Determinist | Verken uw geest | Politiek dakloos


  • Larry4
  • Registratie: Augustus 2000
  • Niet online
in een collectief (alle mensen aan elkaargekoppeld)
gaan de onwikkelingen(van wat te ontwikkelen valt) oneindig snel

  • MSalters
  • Registratie: Juni 2001
  • Laatst online: 10-12 14:13
Breepee schreef op 13 June 2003 @ 22:45:
Even over de vraag of technologie uberhaupt intelligent kan worden (programma schrijven die programma's schrijven etc.).

Het menselijk brein wat tot nu toe verantwoordlijk is voor alle technologie en wat ook programma's kan schrijven, is in feite ook (een verschrikkelijk) geavanceerd programma. Een brein is niet meer dan een klomp schakelingen, maar dan ik-weet-niet-hoeveel-triljarden schakelingen groot. Als in de natuur uit een paar toevallig gevormde aminozuren leven zoals de mens onstaat, lijkt me het gewoon een kwestie van tijd voordat programma's programma's schrijven. Ik vind de termijn van hierboven wel wat erg kort; 2025 lijkt me echt wat te vroeg. Misschien duurt het nog 3 miljard jaar, maar het lijkt me iig niet onmogelijk.

Correct me if I'm wrong.
Ja. Ze bestaan al.

Genetische algoritmen zijn een ontwikkeling binnen de AI waarbij een controle-programma twee algoritmes (programma's) combineert tot een derde in een poging tot een betere oplossing te komen.

Ja, dat betekent dat er niet heel erg veel creativiteit in lijkt te zitten. De nieuwe programma's bestaan uit dezelfde bouwstenen als de oude. Dat heeft de natuur echter niet tegengehouden; met 4 bouwstenen in het DNA en 20 aminozuren zijn een heleboel soorten gemaakt.

Bij het gebruik van genetische algoritmen kan gerichte evolutie naar een doel gebruikt worden, waardoor in minder generaties het doel bereikt wordt. Elke generatie hoeft maar milliseconden te duren, waardoor er een aanzienlijke snelheid bereikt kan worden. Bovendien kun je veel computers in parallel larten draaien.

Er zijn praktische problemen met genetische algoritmen waardoor ze niet massaal gebruikt worden: relatief inefficient voor problemen waarvoor een directe oplossing berekend kan worden, algoritmes moete kunnen muteren en meerdere alternatieve algoritmes moeten gecombineerd kunnen worden en de theorie is nog beperkt bekend. Ze bewijzen echter wel dat het mogelijk is om een programma tot oplossingen te laten komen die een (menselijke) programmeur nooit heeft kunnen voorzien.

Man hopes. Genius creates. Ralph Waldo Emerson
Never worry about theory as long as the machinery does what it's supposed to do. R. A. Heinlein


  • Delerium
  • Registratie: Mei 2000
  • Niet online

Delerium

Mythology

Breepee schreef op 13 juni 2003 @ 22:45:
Even over de vraag of technologie uberhaupt intelligent kan worden (programma schrijven die programma's schrijven etc.).

Het menselijk brein wat tot nu toe verantwoordlijk is voor alle technologie en wat ook programma's kan schrijven, is in feite ook (een verschrikkelijk) geavanceerd programma.
Grappig dat je dat opmerkt; vooruitgang komt vrijwel uitsluitend door een fout. Een fout in die zin dat een bestaand patroon verkeerd werd toegepast, zodat er de facto een nieuwe toepassing ontstond. Het nieuw combineren van bestaande methoden is daarmee het fundament van vooruitgang. Een computer mag geen fouten maken en zal dus nooit out-the-box kunnen 'denken'.
Nog los dat evolutie van beneden af gaat en nooit mbv een hemelhaak gebeurt. Je kan dus echt geen programma maken met als doel dat het programma een beter programma maakt.

De hype van cybernetica en onsterfelijkheid vind ik helemaal lachwekkend. Qua cybernetica zijn we dusdanig ver dat we nog geeneens een rekenmachine hebben kunnen koppelen om makkelijker te kunnen hoofdrekenen, dus het geloof van gigantische datamanipulatie is vooralsnog op een droom gestoeld... een oude droom wel te verstaan.
Onsterfelijkheid is de droom van de jeugd maar de vloek van de ouderen. Op een bepaald moment herken je op grond van ervaring je eigen gedragspatronen en dan pas realiseer je dat je zelf net als ieder willekeurig beest gewoon een aaneenschakeling van routines bent. Bij onsterfelijkheid weet je zeker dat je op den duur alleen maar herhalingen doet.

De suggestie dat onsterfelijkheid een individue mogelijk maakt alleen maar goed te doen is een klassieke fout. De paradigma-shift wat goed en fout is gaat immer door, het onsterfelijke wezen zal echter een oude standpunt handhaven en op den duur de omgekeerde definitie handhaven ofwel het kwaad zelf vertegenwoordigen.

  • Brent
  • Registratie: September 2001
  • Nu online
Ecteinascidin schreef op 14 June 2003 @ 13:45:
[...]

Grappig dat je dat opmerkt; vooruitgang komt vrijwel uitsluitend door een fout. Een fout in die zin dat een bestaand patroon verkeerd werd toegepast, zodat er de facto een nieuwe toepassing ontstond. Het nieuw combineren van bestaande methoden is daarmee het fundament van vooruitgang. Een computer mag geen fouten maken en zal dus nooit out-the-box kunnen 'denken'.
Nog los dat evolutie van beneden af gaat en nooit mbv een hemelhaak gebeurt. Je kan dus echt geen programma maken met als doel dat het programma een beter programma maakt.

De hype van cybernetica en onsterfelijkheid vind ik helemaal lachwekkend. Qua cybernetica zijn we dusdanig ver dat we nog geeneens een rekenmachine hebben kunnen koppelen om makkelijker te kunnen hoofdrekenen, dus het geloof van gigantische datamanipulatie is vooralsnog op een droom gestoeld... een oude droom wel te verstaan.
Onsterfelijkheid is de droom van de jeugd maar de vloek van de ouderen. Op een bepaald moment herken je op grond van ervaring je eigen gedragspatronen en dan pas realiseer je dat je zelf net als ieder willekeurig beest gewoon een aaneenschakeling van routines bent. Bij onsterfelijkheid weet je zeker dat je op den duur alleen maar herhalingen doet.

De suggestie dat onsterfelijkheid een individue mogelijk maakt alleen maar goed te doen is een klassieke fout. De paradigma-shift wat goed en fout is gaat immer door, het onsterfelijke wezen zal echter een oude standpunt handhaven en op den duur de omgekeerde definitie handhaven ofwel het kwaad zelf vertegenwoordigen.
Jij loopt hier iets te vooringenomen rond; ik sta in deze discussie namelijk aan geen enkele kant. Over cybernetica/onsterfelijkheid heb ik het niet eens.

Hoe een programma dat programma's schrijft tot stand komt maakt alleen voor de tijdsduur uit. Of het nou door fouten komt of doelbewuste verandering, tis me om het even.

Natuurlijk zullen huidige programma's echt niet opeens volledig AI worden, daarvoor zullen mensen inderdaad wel eerst zelf een programma voor moeten bedenken. Ik begrijp dat er niet uit het digitale 'niets' zo'n programma kan komen. Aan de andere kant begrijp ik niet, dat er uit het materiele 'niets' wel wat kan komen, namelijk leven (mensen). Ok, allemaal atomen en moleculen enzo, maar die kun je volgens mij op de computer ook wel nabouwen. Stel dat je een realiste simulator had met 'oersoep'. Dan is het op zn minst toch mogelijk dat er inderdaad door een foutje of iets anders een aminozuur komt en na een miljard jaar simuleren leven etc. In het echt is het immers ook zo gebeurd (althans, hoogstwaarschijnlijk, ik meen dat het al eens is nagebootst en echt werkte), dus ik zie niet waarom het absoluut onmogelijk dat er in de simulator ook zoiets gebeurd.
Legt iemand me toch eens uit wat het fundamentele verschil hier zou moeten zijn?

Het ging om de gedachtgang dat als er uit aminozuren mensen ontstaan, er uit simpele programma's ook zelfdenkende programma's moeten kunnen ontstaan. Is die gedachtengang juist, ja of nee?

Humanist | Kernpower! | Determinist | Verken uw geest | Politiek dakloos


  • Rey Nemaattori
  • Registratie: November 2001
  • Laatst online: 04-11 15:00
Verwijderd schreef op 13 June 2003 @ 19:39:
[...]


Hier stel je dat radicale uitvindingen met benaming en gedetailleerde omschrijving en al niet voorspeld kunnen worden. Dat klopt natuurlijk. Maar dat is natuurlijk ook niet de bedoeling van futurologen.

Mensen zijn slecht in koffiedik kijken. Maar naarmate je dichterbij een bepaald doel komt, wordt je blurry sight wel steeds helderder. Wat programma B wordt, weet niemand. Een voorspelling ervan zou je dus niet kunnen maken. Maar wanneer je een superieure AI, die enkele orders of magnitude sneller denkt dan wij, aan het kennis-assimileren en AI-ontwikkelen laat... dan is het nogal aannemelijk dat hij op de proppen gaat komen met iets superieurs.

Ik zie echt niet in hoe het anders kan, wanneer je over elke byte kennis beschikt, en in 1 seconde kunt denken wat de mensheid vanaf dit punt tot aan het begin van zijn bestaan heeft gedacht.
Kernfusie werd in de jaren vijftig/zetig al voorspelt, echter, nu hebben we nog geen werkende reactor gezien(een die meer oplevert dan dat je erin propt...), terwijl ze bijna 40 jaar trug al werden voorspelt, uitgedacht & berekend.....
Ecteinascidin schreef op 14 June 2003 @ 13:45:
[...]
De hype van cybernetica en onsterfelijkheid vind ik helemaal lachwekkend. Qua cybernetica zijn we dusdanig ver dat we nog geeneens een rekenmachine hebben kunnen koppelen om makkelijker te kunnen hoofdrekenen, dus het geloof van gigantische datamanipulatie is vooralsnog op een droom gestoeld... een oude droom wel te verstaan.
Onsterfelijkheid is de droom van de jeugd maar de vloek van de ouderen. Op een bepaald moment herken je op grond van ervaring je eigen gedragspatronen en dan pas realiseer je dat je zelf net als ieder willekeurig beest gewoon een aaneenschakeling van routines bent. Bij onsterfelijkheid weet je zeker dat je op den duur alleen maar herhalingen doet.

De suggestie dat onsterfelijkheid een individue mogelijk maakt alleen maar goed te doen is een klassieke fout. De paradigma-shift wat goed en fout is gaat immer door, het onsterfelijke wezen zal echter een oude standpunt handhaven en op den duur de omgekeerde definitie handhaven ofwel het kwaad zelf vertegenwoordigen.
Nog geen rekenmachiene, maar inmiddels kunnen we al wel optische signalen rechtstreek in het brein projecteren, een blinde heeft daardoor al kunnen "zien", en er zijn apparaatjes waarmee vrouwen met een druk op de knop een orgasme krijgen kunnen :P die zijn ook allemaal aangesloten op zeneuwen & hersenen. Idd een rekenmachiene of een extra fpu zit ern og niet in, maar wie weet wat we over tien jaar bekostooft hebben...

Ik zit ook (nog) niet op onstervelijkehid te w88, maar het idee dat ik 23 jaar bezig ben allerlei kennis in mijn kop te rammen(die binnen een jaar of 2 toch al waar out of date is in mijn vakgebied) om daar "slechts" tot je 65e wat actief meej te doen staat me heel erg tegen. Ik zou graag een jaartje of 200 worden, kun je veel langer gebruikmaken van je kennis en hoef je minderlang percentage van je leven naar school(ie. je productiviteit gaat omhoog)

[ Voor 49% gewijzigd door Rey Nemaattori op 14-06-2003 16:18 ]

Speks:The Hexagon Iks Twee Servertje

"When everything is allright,there is nothing left."Rey_Nemaattori


Verwijderd

Mijn mening over dit onderwerp heb ik al grotendeels uiteengezet in de volgende topics:

AI-beleid en technologische singulariteit

Buitenaardse intelligentie en singulariteiten

Verder worden hier veel argumenten tegen de mogelijkheid en wenselijkheid van een technologische singulariteit gegeven; naar mijn mening klopt een deel hiervan niet, en klopt een ander deel wel maar is het alleen van toepassing op verkeerde invullingen van het begrip "singulariteit". Reacties volgen dus.


Fused
Wat in vredesnaam duidt erop dat kennis en verandering opeens sneller zullen gaan? Voorlopig neemt de productie van kennis nauwelijks meer dan lineair met het aantal mensen toe en neem de snelheid van verandering juist af door de grotere hoeveelheden mensen.
Je kunt kennis en verandering met verschillende maten meten. In sommige van die maten zijn ze exponentieel, in sommige niet; ik vraag me af welke maat jij hier hanteert.

In ieder geval is het zo dat er een exponentiële trend is in bepaalde indicatoren, zoals de snelheid van computers (wet van Moore). Een eerdere poster heeft al het artikel The Law of Accelerating Returns genoemd, waar Kurzweil een stuk meer voorbeelden geeft.

Je kunt erover twisten of dit geschikte maten van vooruitgang in kennis en technologie als geheel zijn. Waar je moeilijker over kunt twisten is dat als deze trends doorzetten, er over een paar decennia gemakkelijk computers te verkrijgen zijn met meer rekencapaciteit dan de menselijke hersenen. Als het vervolgens lukt ofwel een voldoend intelligente AI te maken (die zichzelf dan kan modificeren), ofwel door andere middelen de groei in intelligentie op zichzelf te laten terugkoppelen, kan verandering opeens op heel korte tijdsschalen plaatsvinden (wat Vinge de singulariteit noemt). Kurzweil lijkt ook exponentiële groei als een singulariteit te beschouwen; dat is verwarrend, omdat het niet hetzelfde is, en omdat je dan een manier moet kiezen om te meten of iets exponentieel groeit, waar je allerlei bezwaren tegenin kunt brengen.

Als de technologische singulariteit (in de zin van explosieve veranderingen door een zichzelf modificerende intelligentie) speculatie is, is het volgens mij wel onderbouwde speculatie. Natuurlijk, het zou "niets meer of minder dan geloven" zijn om te beweren dat een singulariteit een historische noodzaak is; maar het is wetenschappelijk te onderbouwen (uit argumenten dat snellere computers en AI in principe mogelijk zijn, enzovoorts) dat het in ieder geval voor zover we weten een mogelijke toekomst is, en dus (vanwege de grote gevolgen) zeer serieus te nemen.


Wieikke
Ik denk ook dat de ontzettend snelle groei alleen zo door kan gaan als we onszelf en onze hersenen gaan aanpassen of onderzoek in handen geven van computers. Misschien kiezen we ervoor dit niet te doen.
Het zou kunnen; maar tenzij binnenkort de mens uitsterft zou het erg onwaarschijnlijk zijn als iedereen op de hele wereld besluit niet dit soort onderzoek uit te voeren, vooral gezien de voordelen die erin te behalen zijn. Het is van groot belang je hiervan bewust te zijn bij het uitstippelen van een strategie voor het omgaan met technologische ontwikkelingen.


Ecteinascidin
In de mens zitten nog steeds genen die dominantie, macht, voortplanting en agressie bevatten. Technologie wordt nog steeds door een kleine groep misbruikt om een dominante status te krijgen over de rest die het niet zo nauw neemt.
Het is te eenvoudig om te zeggen dat de genen die eigenschappen bevatten. Ze bouwen onze hersenen wel op een manier dat we neigingen hebben tot dominantie, macht, voortplanting en agressie, maar het is goed mogelijk deze neigingen te negeren. Elke goede daad (altruistisch, vredelievend, wat je er ook onder verstaat) die door een mens is gedaan, is gedaan door iets met diezelfde menselijke genen.

Dat betekent niet dat het niet waarschijnlijk is dat mensen die belust zijn op macht technologie daarvoor zullen misbruiken. Dat is reden te meer voor degenen die dat niet zijn als eerste belangrijke technieken te ontwikkelen, zodat ze ten goede gebruikt kunnen worden. Je kunt er juist voor kiezen dit soort verantwoordelijkheden over te dragen aan een AI die niet belast is met menselijke gebreken zoals je die noemt.
En sommige mensen houden niet van limieten. Dat zijn de mensen die graag onstervelijk willen worden en die daarvoor de geschiedenis in willen gaan als een 'naam' zoals de brandstichter van de tempel van Zeus (1 van de 7 wereldwonderen, ben alleen zijn naam kwijt) dat deed.
Hoe kom je tot de conclusie dat mensen die onsterfelijk willen worden dat doen uit een drang naar beroemdheid of naar dat hun naam herinnerd wordt? Ik zou best anoniem onsterfelijk willen zijn, en ben daarin bij mijn weten niet uitzonderlijk.
Meestal komt het streven naar meer intelligentie neer op een andere manier om de macht te krijgen. Naarmate je slimmer wordt, wordt je iig ook steeds achterdochtiger en krijg je ook sneller complottheorien en dat soort meuk.
Baseer je dat op een redenering die geldt voor intelligente wezens in het algemeen, of alleen op je ervaringen met en kennis van mensen (die onderling niet heel veel in intelligentie verschillen, vergeleken met wat mogelijk is)? Het menselijk brein heeft vele eigenaardigheden, en als het mogelijk is intelligentie te verhogen zou het in de meeste gevallen ook mogelijk moeten zijn die eigenaardigheden weg te werken. Waarom zou een (extreem) intelligent en rationeel wezen in allerlei ononderbouwde complotten geloven?

Verwijderd

Lord Daemon
Het hele verhaal van die singulariteit gelooft natuurlijk niemand; technologie ontwikkelt zich niet vanzelf, dat is mensenwerk, en mensen zijn niet zo flexibel dat ze een singulariteit kunnen bewerkstelligen. Dan zouden ze ineens oneindig snel dingen moeten gaan uitvinden.
Technologie ontwikkelt zich inderdaad niet vanzelf; daar is intelligent denkwerk voor nodig. Dit denkwerk zou van mensen kunnen komen, of van AIs. Als je AIs ook technologie noemt, dan ontwikkelt technologie zich wel degelijk vanzelf (op voorwaarde dat er ook eerst een AI gebouwd is als "seed").

Mensen zijn inderdaad niet heel flexibel. Technologisch veranderde mensen ("transmensen", zo je wilt) zijn al heel wat flexibeler, afhankelijk van waar je de grens trekt wat nog een mens is en wat niet. AIs zijn uiterst flexibel, als ze directe toegang hebben tot hun eigen source code.

Wat nog belangrijker is: een singulariteit, zoals het woord in deze context gebruikt wordt, betekent niet per se een oneindig snelle vooruitgang; dat zou heel goed een onzin-idee kunnen zijn. Wat het wel betekent is een heel snelle vooruitgang waarbij intelligentie een rol speelt die (veel) groter is dan die van mensen nu.
Ten tijde van de roemruchte 'W&L-essaywedstrijd' heb ik hier een essay over geschreven: Beklimming van de Olympos <http://www.phys.uu.nl/~gijsbers/writings/0023olympos.pdf>. Ik beargumenteer daarin dat de prijs voor onsterfelijkheid te hoog is om ooit te mogen betalen - en dat nog volledig afgezien van eventuele 'rebellerende technologie'.
Dat was toch een polemisch bedoeld essay, waar argumenten er niet zozeer toe deden? :)

Ik sta nog steeds achter mijn in dit topic geposte kritiek.
De meest ziekelijke zelfoverschatting en het meest verwerpelijke machtsdenken in 1 zin - ik vind het knap. Fijne lui.
Ten hoogste is het een overschatting van de grenzen van wat met behulp van techniek mogelijk is. Niemand verwacht in zijn huidige vorm het "universe" te "controllen".

Bovendien suggereert "machtsdenken" de onderdrukking van anderen, in plaats van de "overheersing" van de levenloze natuur en, op abstracter niveau, zijn wetten. Daar is nogal een verschil tussen, of je er hetzelfde woord voor gebruikt of niet.
Technologische explosie of niet, het is ondenkbaar dat er ooit een methode zal zijn om technologische innovatie door een computer (of een mens, for that matter) af te dwingen - hoe slim je ook bent. Het idee dat er een computerprogramma kan bestaan dat een burter computerprogramma schrijft, dat dan weer een bruter computerprogramma schrijft... etcetera... is onzinnig, simpelweg omdat het alle programma's OF moeten weten naar welk eindresultaat ze toe werken - en dan gebeurt er niets - OF bizar veel geluk moeten hebben. Zonder voorkennis kunnen ze namelijk niet checken of ze iets goeds aan het programmeren zijn.
Je lijkt er nu van uit te gaan dat men al precies in alle details weet wat het computerprogramma dat men maakt zou moeten uitvinden. Dat denkbeeld is inderdaad onzinnig.

Het is inderdaad waar dat, als je precies in alle details weet wat een wiel is, je het wiel in zekere zin al uitgevonden hebt. Misschien is dat een leuke paradox, maar hij is voor de praktijk nauwelijks van betekenis. Dat je niet de precieze uitvindingen kunt voorspellen is iets heel anders dan dat er niets zinnigs te zeggen valt over toekomstige uitvindingen -- dat laatste is dan ook niet waar. Zo durf ik bijvoorbeeld met je te wedden dat over vijf jaar computers sneller zijn dan nu doordat ontdekkingen dat mogelijk maken.

Voor het specifieke geval van het "uitvinden" van een computerprogramma geldt iets dergelijks. Je maakt een computerprogramma A niet om een specifiek nog intelligenter computerprogramma B uit te vinden -- inderdaad, dan had je B ook zelf kunnen programmeren. Je maakt een computerprogramma in de algemene hoop dat hij (volgens bepaalde criteria) een intelligenter programma maakt, waarvan je nog niet weet wat het is.

Jij weet in dat geval niet hoe je een nog intelligenter programma zou moeten maken; het intelligente programma (A) dat je hebt gemaakt weet dat wel, omdat het intelligenter is dan jij. (In het geval van mens vs. AI doordat het programma sneller is, makkelijker met programmatuur om kan gaan, direct zijn gedachteprocessen kan bekijken, nooit slaapt, noem maar op)
Het is niet mogelijk een programma te schrijven waarvan je kan voorspellen dat het een nog beter programma gaat schrijven
Het is niet mogelijk een programma A te schrijven waarvan je kunt voorspellen "A zal een beter programma, namelijk B, schrijven".

Het is wel degelijk mogelijk een programma A te schrijven waarvan je (met redelijke maar niet volmaakte zekerheid) kunt voorspellen "A zal een beter programma schrijven".

AI is niet een gereedschap zoals een schroevendraaier dat is; het is een denkend wezen.

Het proces van een AI die een betere AI maakt die een betere AI maakt en zo verder gaat dus wel degelijk op, tenzij je wilt beweren dat iemand nooit iets kan maken wat intelligenter is dan hij of zij zelf, of dat soort onzin. (Vraag maar aan de moeder van Einstein)

Of, ook een leuke: een computer kan alleen wat je hem opdraagt te doen. (Vraag maar aan Deep Blue)

Verder hoop ik dat niemand hier van mening is dat AI onmogelijk is vanwege de stelling van Goedel.
Ik ben mijn lichaam - hoe zou het een tool kunnen zijn? Moet ik mezelf dan als tool zien?
Ik neem aan dat Codin met "lichaam" bedoelt: de specifieke fysieke vorm waarin het patroon zich bevindt dat jouw geest is. Zo kan je, als je je bijvoorbeeld uploadt, eerst een lichaam hebben en later een ander lichaam. Omdat volgens de meeste morele ideeën de uitwerking van je keuzes op ervaringen, gedachten en gevoelens (die van jezelf en die van anderen) uiteindelijk het belangrijkst zijn, kun je in die zin je lichaam als "gereedschap" zien. Waarom zou je naar schoonheid streven die nooit door iemand wordt waargenomen?
Als ik het goed begrijp moet ik allerlei dubieuze voordelen - zoals intelligenter zijn - aanvaarden als redenen om de mens te vernietigen?
Hoe kom je erbij dat men de mens wil vernietigen?

Als mensen veranderen in iets wat fysiek niet meer lijkt op een mens, is dat nog wat anders dan dat de eigenschappen van de menselijke geest die we belangrijk vinden verloren gaan.

Als sommige mensen veranderen in iets wat geen mens meer is, betekent dat nog niet dat iedereen dat moet; tenzij je daartoe gedwongen wordt door transmenselijke snoodaards zonder dat een AI of wat ook tussenbeide komt. Dat zou ook ik willen vermijden.

Zoals je weet is het niet zo dat als de meeste mensen een bepaalde verandering ondergaan, iedereen vanzelf die verandering ondergaat, omdat de menselijke aard nu eenmaal veranderd zou zijn.
Ik zie volstrekt geen reden om te denken dat de situatie na afloop van deze transhumanisatie mooier zal zijn dan die ervoor. Met verhaaltjes over dat ik dan meer macht of meer genot zal hebben kan je mij niet overtuigen - dat zijn nogal inadequate redenen om een ethische beslissing van kosmische proporties op te baseren.
Eén reden is dat op de lange termijn toch ooit iemand die beslissing moet nemen; dan maar liever zo veilig mogelijk.

Een andere reden is dat een hele hoop lijden en dood erdoor opgelost kunnen worden. Jij vindt deze toestand misschien mooi, moreel en betekenisvol, ik vind dat niet; van mij hoef jij jezelf niet per se te "transhumaniseren".

Nog een reden is dat het technologisch veranderen van de menselijke aard tot veel meer groei, schoonheid, en nieuwe ideeen kan leiden: precies die dingen waar je in je essay voor vreest als je alleen onsterfelijkheid beschouwt zonder enige andere vooruitgang. Voor een intelligenter persoon zouden misschien nieuwe categorieen schoonheid mogelijk zijn die voor een kleiner brein niet te bevatten zijn, net zoals de moderne wetenschap niet te bevatten is voor een aap.
Transhumanisten zijn mensen die de schoonheid van de wereld niet kunnen inzien,
Ik denk dat transhumanisten de schoonheid van de wereld wel degelijk inzien; ik denk alleen niet dat de huidige toestand van de wereld zo mooi is vergeleken met wat hij zou kunnen zijn. De schoonheid van de wetenschap, wiskunde, en alle kunstzinnige mogelijkheden blijft ook in transhumanistische situaties gelden; maar ik zie niet veel schoonheid in min of meer toevallige feiten, zoals dat mensen vijf vingers aan elke hand hebben, dat per jaar 55 miljoen mensen sterven, ga zo maar door. Die dingen zijn er niet door iemand gezet als spelletjes of leuke uitdagingen; het zijn volstrekt willekeurige beperkingen, historische ongelukjes.
en dan maar een absurd vooruitgangsgeloof aan gaan hangen in de op niets gebaseerde overtuiging dat die vooruitgang tot meer schoonheid zal leiden. Het lijkt me ontzettend veel nuttiger om eens te leren het leven zoals het is te waarderen, in plaats van altijd maar de moderne drang naar 'meer, meer, meer' achterna te hollen.
Meer intelligentie, meer vrijheid en meer geluk is niet hetzelfde als: meer geld, meer seks en grotere auto's.
Meer is vaak kwalitatief anders, vooral als het over complexe dingen als hersenen gaat.

Het leven zoals het is waarderen lijkt mij niet altijd een zinvolle houding -- dan kan je ook wel de hele dag in bed blijven liggen, niet eten, en als het je niet bevalt, het maar leren waarderen. Ik neem aan dat je het met me eens bent dat het een goede zaak is om in bepaalde gevallen je kwaliteit van leven te verhogen.

Wat is er bijzonder aan de verzameling historische ongelukjes die we "de menselijke toestand" noemen dat deze het waarderen waard is? Zou het niet beter zijn eerst te zorgen dat men lang en gelukkig kan leven, en dan de wereld leren waarderen?
Grappig, dat - en zo rijst de vraag of identiteit wel betekenisvol is
Dat is een goede vraag, en ik denk dat identiteit niet bestaat als precies te definiëren begrip, maar dat er wel pragmatische invullingen van het begrip "identiteit" zijn die in verschillende praktische situaties voor de hand liggen en bruikbaar zijn. De filosoof Derek Parfit heeft over dit onderwerp heel zinnig geschreven.
Toch zal ik veel meer mezelf zijn dan dat dat stuk software mij is. Ik ben immers degene die zich niet alleen herinnert dat hij lang haar heeft, maar het ook voelt kriebelen in zijn nek.
Waarom zou een stuk software zijn virtuele haar niet voelen kriebelen in zijn virtuele nek? Of bedoel je dat hij het wel voelt kriebelen, maar niet in iets wat van buiten op een nek lijkt?

Ben je het met me eens dat een voldoend gedetailleerde simulatie voor degene die erinzit subjectief niet te onderscheiden is van de werkelijkheid?

Verwijderd

Nog steeds Lord Daemon
Amor fati! Heb het Lot lief
Wat moet ik me bij het "Lot" voorstellen? Volgens mij bestaat er geen Lot, alleen in de triviale betekenis "datgene wat zal gebeuren". Ik zie nergens een gebod van het Lot dat de menselijke aard niet veranderd mag worden, of iets dergelijks.

De menselijke situatie brengt reële problemen met zich mee, problemen die je vaak niet kunt zien als "straf" of "verdiende loon" of "leuke uitdaging" of "leerzame les". Door het onmogelijk te maken de menselijke situatie te overstijgen, dwing je anderen ertoe onder deze problemen te lijden; dit terwijl ze toch geen boodschap zullen hebben aan jouw vreemde ideeën over het Lot en Schoonheid.

Geluk is niet iets wat vanzelf volgt door je te schikken in de een of andere natuurlijke orde. Geluk is een verschijnsel in je hersenen, en de menselijke hersenen zijn niet gebouwd om blijvend gelukkig te zijn, laat staan in alle mogelijke situaties; ze zijn gebouwd (ietwat simplistisch gezegd) om zich zo veel en zo effectief mogelijk voort te planten. Dat alleen al lijkt me een goede reden om het mogelijk te maken er veranderingen in aan te brengen.
Nu, de mogelijkheden dat de wereld van de transhumanisten een zieke dystopie is, lijkt me heel reeel. Zo komt hij in ieder geval wel op mij over.
De ideale wereld waar de meeste transhumanisten naar streven is er een waar niemand die dat niet wil hoeft te lijden; waar iedereen zijn verlangens in vervulling kan laten gaan, zelfs verlangens ver voorbij wat normaal voor mensen mogelijk is; en waar degenen die dat willen tot in de verre toekomst gelukkiger kunnen zijn dan een mens zich kan voorstellen. Ik zie niet waarom dat een dystopie is, laat staan een zieke.
En net alsof iemand ooit een AI zal kunnen schrijven die kan denken wat alle mensen ooit gedacht hebben? En als dat al lukt, dan heb je het meest neurotische, schizofrene en gevaarlijke object uit de geschiedenis van het heelal geschapen, ben ik bang.
Wat bedoeld werd is een AI die zo snel kan denken dat hij binnen afzienbare tijd evenveel kan denken als alle mensen tot nu toe gedaan hebben. Of dat mogelijk is hangt o.a. af van de limieten aan hoe ver je computers kunt miniaturiseren; ik ga me nu niet wagen aan een berekening.

Wat niet bedoeld werd is een AI die ook specifiek alles denkt wat door alle mensen ooit gedacht is. Zo'n AI zou inderdaad een meervoudige persoonlijkheidsstoornis van hier tot (ergens) hebben.
Of de strijd aangaan. Mijn huidige standpunt is dat wanneer mensen zich gaan laten uploaden het een morele noodzakelijkheid is de stekker uit hen te trekken.
Als je de stekker uit een upload trekt, houdt een levend, denkend wezen (geestelijk gelijk aan een mens) op te bestaan. Moet ik dit daarom lezen als een aankondiging dat je in zo'n geval zult gaan moorden -- nota bene met als slachtoffers mensen die je niets hebben misdaan en niet van plan zijn je enig kwaad aan te doen (zoals ik)? Sterker nog -- dat het moreel noodzakelijk is te gaan moorden voor de goede zaak?

Of telt een moord niet als het slachtoffer van silicium is in plaats van van vlees en bloed? ;)

Of begrijp ik je nu helemaal verkeerd?

(Ach, dan maar batterijen)
Een goede sfeer is mijn belangrijkste doel in deze discussie.
Maar kun je begrijpen dat het niet bevorderlijk is voor de sfeer als je verklaart dat je aan mensen een grote hekel hebt, dat ze absurde ideeën en zieke dystopieen aanhangen, dat "natuurlijk niemand" in hun ideeën gelooft, dat hun ideeën gebaseerd zijn op machtsdenken en een drang naar "meer meer meer"; en als je verklaart dat het een morele noodzaak is ergens in de toekomst een oorlog tegen ze te beginnen? Natuurlijk, dit alles is niet persoonlijk bedoeld, maar wel gericht tegen een verzameling mensen waarvan ik mijzelf als element zie.

Ik begrijp niet waarom transhumanisten door bijvoorbeeld jou en Ecteinascidin en Emanuel Lasker soms worden neergezet als egoïstische machtswellustelingen die de wereld willen onderwerpen aan hun megalomane fantasieën. Daar herken ik mijn motivaties helemaal niet in :) , en bij mijn weten ben ik in dit soort dingen een vrij typische transhumanist.

Er bestaan zeker zulke transhumanisten als je beschrijft, maar ze vormen bij mijn weten een kleine minderheid. Als ik vragen mag: op welke manieren (bijv. op basis van welke personen of sites) heb je dit beeld van het transhumanisme en zijn aanhangers gevormd?

[ Voor 15% gewijzigd door Verwijderd op 22-10-2003 21:44 . Reden: detypoficatie ]


Verwijderd

ff los van het hele ethische vraagstuk, wat niet onbelangrijk is maar waar ik me nu niet in ga mengen.

Zover ik het kan zien, is het hele getheoretizeer over een singulariteit ge baseerd op het idee dat er bestaat dat de groei van kennis en technologie exponentieel is en met name de aaname dat het zo zal blijven. Dat laatste lijkt mij zeer onwaarschijnlijk.

Ten eerste. Kijk naar wat er nog meer exponentieel gegroeid is op gelijke voet met de technologie. Ik vermoed op z'n minst: de hoeveelheid manuren in de ontwikkeling ervan en de hoeveelheid resources (geld) die daarin in gestokken wordt. Nu ziet iedereen zo dat deze laatste twee dingen nogal begrenst zijn en dat de groei daarvan waarschijnlijk nu al niet meer echt exponentieel is.

Ten tweede. Bij de aaname dat de kennis exponentieel zal groeien hoort ook de aaname dat er een onbegrensde hoeveelheid kennis is die wij nog niet kennen. Waarom zou dat zo zijn? Mijn intuitie zegt mij zelfs dat dit hoogst onwaarschijnlijk is.
Goede voorbeelden zijn fundementele wetenschaps gebieden als natuurkunde en scheikunde. Ontwikkelingen in die gebieden gaan juist steeds langzamer met name op fundementeel gebied. Stringtheorie zit niet bepaald schot in, eens in de tien jaar of zo wordt er een klein stapje vooruit gezet. En als dat ooit rond komt, dan ziet het er naar uit dat het wel gedaan is met echt fundementele ontwikkelingen. (zelfs al is er een nog kleinere fundementele schaal, waarschijnlijk is dat te ver weg van onze werkelijkheid om er nog iets van te merken en dus te weten te komen) (natuurlijk moet er dan nog steeds veel worden uitontwikkeld)
Bij scheikunde is dit al enig zins het geval.

Hoe moet toegepaste wetenschaps gebieden nou nog eindeloze groei door maken als ze niet gevoed worden met nieuwe fundementele ontwikkelingen.

En dat de groei van kennis nog steeds zo hard gaat is met name te wijten aan het feit dat er veel gedaan wordt in relatief nieuwe onderzoeks gebieden als genetica. Maar je gaat mij niet wijs maken dat die gebieden niet uitontwikkeld raken. Ook gaat het er bij mij niet in, dat er eventueel oneindig veel nieuwe gebieden zouden zijn.

Dit in overweging neemd lijkt het mij volkomen absurd, dat kennis een exponentiele groei zal blijven door maken. Hoogst waarschijnlijk beschrijft de kennis eerder een of andere S-curve, zoals de meeste realistische groei modellen die exponentieel beginnen. Hoe lang de groei nog exponetieel doorgaat. Wie weet? misschien tien, misschien honderd jaar. Misschien nog veel en veel langer. Maar misschien zitten we ook al wel op de maximale groei.

Verwijderd

Codin
Je verandert niet als je je hand verliest. Je draait m'n bewering om.
Nee, LD parafraseert perfect wat jij beweerde en laat met keiharde logica zien, dat het jou argument tegen zijn idee, dat hij zijn lichaam is, volkomen geen houdt snijdt.

(de hele thread in een keer lezen heeft zo zijn voordelen)

Verwijderd

Verwijderd schreef op 14 June 2003 @ 17:47:
Waarom zou een (extreem) intelligent en rationeel wezen in allerlei ononderbouwde complotten geloven?
Een extreem intelligent wezen is zich automatisch ook extreem bewust van de kennis, die hij niet heeft en is in staat de scenarios door te denken, die hij opgrond van zijn kennis niet kan uit sluiten. Daarbij zal bij een wezen dat streeft naar zelf behoudt, bijzonder aandacht besteed worden aan de scenarios, waarin hij zelf benadeelt wordt. Dit laatste lijkt verdacht veel op paranoia.

Verwijderd

Verwijderd schreef op 14 June 2003 @ 22:57:
[...]


Nee, LD parafraseert perfect wat jij beweerde en laat met keiharde logica zien, dat het jou argument tegen zijn idee, dat hij zijn lichaam is, volkomen geen houdt snijdt.
Nee, ik word verkeerd begrepen.

Och... LD heeft wel meer langs me heengepraat in deze discussie. Ook heb ik hem wel vaker dingen precies om zien draaien (in andere threads). Ik weet niet waarom hij dat doet. Maar ik trek mezelf er verder niet veel van aan, omdat het zo belangrijk niet is. Ik heb ook m'n eigenaardigheden.

Mijn argument snijdt overigens niet alleen hout, maar gaat zelfs door centimeters gewapend beton. LD gebruikt dan ook geen logica, maar meer verbuigingen van de keiharde werkelijkheid, om zijn dystopische visie op een utopische visie (die van transhumanisten) te ondersteunen.


Ter verduidelijking:

Het lichaam is een tool. Na het verliezen van een hand, ben je nog altijd dezelfde persoon, zij het wat depressiever. Je bent veranderd door de ervaring, maar toch nog steeds dezelfde persoon.

Een vergelijking met het Louvre is niet de beste parallel die je kunt trekken, daar het Louvre geen unieke stroom van bewustzijn heeft, die zichzelf kan blijven, ook als het Louvre compleet omgebouwd wordt tot een ander gebouw. Mocht je een klein gedeelte vervangen door wat anders, dan zien mensen het gebouw nog steeds als hetzelfde Louvre. Bouw je het echter compleet om tot wat anders, dan kijken mensen raar op. En terecht. Als het Louvre een bewustzijn had gehad dat bewaard was gebleven tijdens het ombouwen, dan zou je het nog steeds kunnen zien als het Louvre, maar dan in een nieuw jasje. Het is echter onzinnig om te spreken over gebouwen met bewustzijn. Dus laat ik het hier eens bij laten.


Het tegenspreken van het feit dat het lichaam een tool is, vind ik meer iets voor religieuze mensen, die graag zouden zien dat het lichaam heilig was, en die zich op hun teentjes getrapt voelen door materialistische mensen zoals ik zelf. Zie ook je eigen reactie op mij, waaraan af te zien valt dat je mijn visie beangstigend vindt.

Het vasthouden aan moeder-natuur-is-heilig-gedachtengangen gaat het je echter niet bepaald gemakkelijk maken in de komende decennia, waarin body-upgrades vrij populair zullen worden. Dit soort gedachtengangen zijn obsolete.

Verwijderd

Een wezen dat zelfbehoud tot doel heeft zal inderdaad mogelijke bedreigingen nagaan. (Daarbij moet je wel bedenken dat zelfbehoud als het goed is niet het enige of belangrijkste doel van een AI zal zijn.) Als het een rationeel wezen is, zal het niet meer aandacht aan deze bedreigingen besteden dan effectief is. Waarom dat paranoia zou zijn zie ik niet -- zo'n wezen zal niet gaan denken "aiai ze komen me halen" en zich in een schuur opsluiten met honderd machinegeweren als daar geen noodzaak toe is.

Wat het Louvre betreft heeft Lord Daemon denk ik inderdaad gelijk; je kunt zeggen "ik ben mijn lichaam" zonder dat ieder apart deel van het lichaam meteen essentieel is. Dan moet je echter wel een criterium bedenken wanneer iets hetzelfde lichaam is. Zie ook: het schip van Theseus. (Is het Louvre nog het Louvre als je het met de grond gelijk maakt? Is Lord Daemon nog Lord Daemon als zijn hoofd in een pot sterk water in leven wordt gehouden?)

Als je zo'n criterium bedenkt zou het er denk ik in de praktijk weer op neerkomen, dat iedere of bijna iedere verandering die de structuur van je hersenen intact laat je niet tot een andere persoon maakt. Zo opgevat kun je je lichaam zijn en toch na destructief uploaden een heel ander lichaam blijken te zijn. In die zin is het handiger om over jezelf te spreken als een patroon in een fysisch object, in plaats van als een fysisch object.

Maar goed, uitspraken als "ik ben mijn lichaam" zijn op meerdere manieren op te vatten, je kunt er nog lang over ruzieën welke de juiste of bedoelde is, het is naar en veel werk om precies alle betekenissen door te pluizen, en ik zie dit soort discussies over identiteit grotendeels als woordspelletjes.

Ik ben het trouwens grotendeels eens met wat Codin in dit topic zegt, al vind ik dat hij zich soms onzorgvuldig uitdrukt (m.b.t. tools, identiteit, en dergelijke).

[ Voor 19% gewijzigd door Verwijderd op 15-06-2003 01:10 ]


  • maratropa
  • Registratie: Maart 2000
  • Niet online
Ik denk dat we zoals we nu zijn niet echt wat te zeggen hebben over wat er met ons als mensheid gebeurt. Ik denk dat we hier zijn met een doel en om aan dat doel te beantwoorden worden we in toom gehouden door de "natuur" waar we in leven. Dus we kunnen wel leuke dingetjes bedenken, maar echt van invloed zijn we niet.

Ik denk verder dat uiteindelijk onze technologie leuke speeltjes zijn, maar eigenlijk meer kwaad dan goed doen. En een computer blijft een computer en een mens blijft sterfelijk.

We worden technologisch steeds geavanceerder, maar dit hele verhaal gaat er een beetje van uit dat alles steeds beter gaat. Maar volgens mij gaat het niet beter.

specs


Verwijderd

Trias, je zou inderdaad heel goed gelijk kunnen hebben dat de vooruitgang beter beschreven wordt door een sigmoïde dan door een exponentiële kromme; zie ook mijn reply aan Fused. Wat essentieel is aan het idee van de technologische singulariteit is niet dat de vooruitgang voor altijd door een bepaalde wiskundige functie wordt omschreven, of naar oneindig gaat, of wat ook; de essentie is dat er zeer snelle veranderingen kunnen gaan plaatsvinden als iets bestaat wat intelligenter dan mensen is, en dat het goed mogelijk is dat vooruitgang in bijv. computersnelheid het maken van zo'n intelligentie in de komende eeuw mogelijk zal maken.

Hoe snel de stringtheorie voortgaat is daarbij niet van direct belang. De meeste wetenschap is (in die zin) niet-fundamenteel, en hetzelfde geldt op het moment voor alle technologische ontwikkelingen. Misschien is er dan niet oneindig veel meer aan niet-fundamenteels te ontdekken (misschien wel), het lijkt mij vast staan dat er nog heel veel nu niet technisch mogelijk is wat later misschien wel technisch mogelijk zal kunnen zijn (nanotech, biotech, AI, "brain-computer integration", quantumcomputers, ...)

Als de groei van de onderzoekende bevolking en benodigd kapitaal exponentieel is geweest tot nu toe (bron?), zal dit met een flink lagere exponent geweest zijn dan de snelheid van computers. Een exponent gedeeld door een exponent is nog steeds een exponent. :)
Bovendien zal de groei in bruikbaar kapitaal en hoeveelheid onderzoekers zich (misschien in mindere mate) nog steeds voortzetten. Misschien gebeurt het in 2050 in plaats van 2020, misschien niet -- dat haalt het hoofdidee niet onderuit.

edit:
(trouwens, ik bedenk net dat ik mezelf min of meer aan het herhalen ben van mijn tweede post hier.)

[ Voor 54% gewijzigd door Verwijderd op 15-06-2003 01:06 ]


Verwijderd

Verwijderd schreef op 14 June 2003 @ 23:55:
[...]

Mijn argument snijdt overigens niet alleen hout, maar gaat zelfs door centimeters gewapend beton. LD gebruikt dan ook geen logica, maar meer verbuigingen van de keiharde werkelijkheid, om zijn dystopische visie op een utopische visie (die van transhumanisten) te ondersteunen.
BS.

ik vat samen:

LD: Ik ben mijn lichaam.
Codin: Maar als jij je lichaam bent, dan zou je dus opeens iemand anders zijn als je je hand verliest.
LD: Nee, want als je een kapel van het louvre sloopt is het louvre toch nog steeds het louvre.
Codin: Juist dat bewijst mijn gelijk.

Zoals je ziet snijdt jouw argumentatie hier weinig hout. Op geen enkele manier spreek je hier effectief tegen dat LD zijn lichaam kan zijn. Als je dat niet op logische grond in ziet, hoef je ie iedergeval niet op je domme vrienden neer te kijken.

Het is volgens mij een nogal reductionistisch beeld om te denken, dat iemand alleen zijn geest is. Een deel komt juist van hoe iemand zich voelt, wat zijn oorsprong heeft in zijn lichaam. Zeker als je bedenkt dat je gemoeds toestand voor een groot deel bepaald wordt door hormonen. (castreer jezelf en vraag je af of je dan nog wel helemaal dezelfde persoon bent). Je hersenen werken niet zuiver electronisch en kunnen niet gezien worden als een heel ingewikkelde schakkeling voor een groot deel werkt het ook chemisch.

Om weer de analogie met het louvre aan te halen. Als je een vleugel sloopt en er iets anders neerzet. Dan is het louvre nog steeds het louvre, maar toch is het karakter van het gebouw verandert.

Verwijderd

Verwijderd schreef op 15 June 2003 @ 00:16:

Als de groei van de onderzoekende bevolking en benodigd kapitaal exponentieel is geweest tot nu toe (bron?), zal dit met een flink lagere exponent geweest zijn dan de snelheid van computers. Een exponent gedeeld door een exponent is nog steeds een exponent. :)
Bovendien zal de groei in bruikbaar kapitaal en hoeveelheid onderzoekers zich (misschien in mindere mate) nog steeds voortzetten. Misschien gebeurt het in 2050 in plaats van 2020, misschien niet -- dat haalt het hoofdidee niet onderuit.
Op zich is voor mijn punt natuurlijk niet essentieel dat de groei van resources voor onderzoek exponetieel is geweest. (waar ik inderdaad geen bron voor heb) waar ik wees was dat naast technologie en kennis er zoveel andere grootheden zijn die in de afgelopen eeuwen gegroeid zijn. Om de conclusie te trekken dat dus dergelijk dingen slechts alleen een functie van de tijd zijn is volkomen onzin. Veel waarschijnlijker zijn deze grootheden een functie van elkaar. (er kan bijvoorbeeld een exponentieel of veel ingewikkelder verband zijn tussen de hoeveelheid geld die in onderzoek naar computers gaat zitten en de snelheid van computers). Van veel van de andere grootheden is het vrij duidelijk dat ze in iedergeval niet blijven groeien en dus dat er waarschijnlijk ook wel een eind aan de groei van technologie zal komen.

Dit wil natuurlijk niet zeggen dat een singulariteit niet kan op treden. De vraag is natuurlijk wel hoeveel vooruit gang die nog kan boeken.
Een wezen dat zelfbehoud tot doel heeft zal inderdaad mogelijke bedreigingen nagaan. (Daarbij moet je wel bedenken dat zelfbehoud als het goed is niet het enige of belangrijkste doel van een AI zal zijn.) Als het een rationeel wezen is, zal het niet meer aandacht aan deze bedreigingen besteden dan effectief is. Waarom dat paranoia zou zijn zie ik niet -- zo'n wezen zal niet gaan denken "aiai ze komen me halen" en zich in een schuur opsluiten met honderd machinegeweren als daar geen noodzaak toe is.
Dat laatste zou ook niet zo'n probleem zijn. Een dergelijk systeem zal echt wel nogal wantrouwend zijn, omdat het niet uit kan sluiten dat andere liegen. (wat ons op een interessant probleem brengt. als machines kunnen liegen, kunnen ze dat ook tegen elkaar. echter zal het heel moeilijk zijn voor de machines om te achterhalen of de ander liegt, waardoor ze op een bepaald punt moeite zullen krijgen met communiceren. Op dit punt zullen ze of moraliteit moeten ontwikkelen of verstrikt raken in hun eigen paranoia)

Verwijderd

Het lijkt mij toch dat de discussie met het Louvre voortkomt uit een verschil in wat bedoeld wordt. Lord Daemon en Trias bedoelen met "ik ben mijn lichaam" dat ze op dit moment gelijk te stellen zijn aan een bepaald deel van de fysieke werkelijkheid. Dat is helemaal waar. Codin bedoelt met "ik ben niet mijn lichaam" dat datgene waardoor je redelijkerwijs bepaalde delen van de fysieke werkelijkheid op verschillende tijdstippen "Codin" kunt noemen de structuur van zijn hersenen is, en niet de eigenschappen van de rest van zijn lichaam. Ook dat is helemaal waar. Ik vind het altijd een beetje deprimerend als mensen terminologie verschillend opvatten en dan elkaar dom en onlogisch denkend gaan noemen in plaats van een beetje meegaand te interpreteren wat de ander bedoelt.
Een deel komt juist van hoe iemand zich voelt, wat zijn oorsprong heeft in zijn lichaam.
Dat is waar, de eigenschappen van je lichaam beïnvloeden (vaak direct) die van je hersenen. Maar je zou de effecten van hormonen ook op andere manieren teweeg kunnen brengen. Bij het simuleren van een upload zijn chemische effecten ook te simuleren; dan kun je het dezelfde persoon noemen, ondanks dat de oorzaak van deze effecten anders is.

[ Voor 4% gewijzigd door Verwijderd op 15-06-2003 17:10 ]


Verwijderd

Als je de zaak uit z'n context rukt wel ja.
Zoals je ziet snijdt jouw argumentatie hier weinig hout.
Die opmerking heb je al gebruikt, en begint oud te worden. Kalmeer anders even, en reageer niet zo kinderachtig. Je begrijpt me simpelweg niet. Klaar.

Ik heb duidelijk een onderscheid aangebracht tussen het Louvre en een bewustzijnd mens. Dit neem je niet mee.

Mijn stelling: tien ton staal vertikaal.
Op geen enkele manier spreek je hier effectief tegen dat LD zijn lichaam kan zijn. Als je dat niet op logische grond in ziet, hoef je ie iedergeval niet op je domme vrienden neer te kijken.
Dat heb ik niet geschreven omdat ik een of andere arrogantheidsbehoefte heb die voorzien moet worden. Dat is daadwerkelijk een probleem. Enig respect lijkt me op z'n plek.
Het is volgens mij een nogal reductionistisch beeld om te denken, dat iemand alleen zijn geest is. Een deel komt juist van hoe iemand zich voelt, wat zijn oorsprong heeft in zijn lichaam. Zeker als je bedenkt dat je gemoeds toestand voor een groot deel bepaald wordt door hormonen. (castreer jezelf en vraag je af of je dan nog wel helemaal dezelfde persoon bent). Je hersenen werken niet zuiver electronisch en kunnen niet gezien worden als een heel ingewikkelde schakkeling voor een groot deel werkt het ook chemisch.
Je gemoedstoestand verandert. Maar ik heb het hier uitsluitend over de unieke bewustzijnsstroom waar je over beschikt. Of liever: de unieke SOC (stream of consciousness) die je bent.
Om weer de analogie met het louvre aan te halen. Als je een vleugel sloopt en er iets anders neerzet. Dan is het louvre nog steeds het louvre, maar toch is het karakter van het gebouw verandert.
En mocht het gebouw een unieke SOC hebben, dan was dat gelijk gebleven (althans, dat is je streven wanneer je jezelf een superieur lichaam aanmeet). Net wat ik schreef. Zijn we het toch eens.

[ Voor 12% gewijzigd door Verwijderd op 15-06-2003 16:59 ]


Verwijderd

Verwijderd schreef op 15 June 2003 @ 15:00:
Op zich is voor mijn punt natuurlijk niet essentieel dat de groei van resources voor onderzoek exponetieel is geweest. (waar ik inderdaad geen bron voor heb) waar ik wees was dat naast technologie en kennis er zoveel andere grootheden zijn die in de afgelopen eeuwen gegroeid zijn. Om de conclusie te trekken dat dus dergelijk dingen slechts alleen een functie van de tijd zijn is volkomen onzin.
Dat is helemaal waar. Die conclusie zou ik ook niet willen trekken. De conclusie die ik wel zou willen trekken is dat de effecten die je beschrijft waarschijnlijk te klein zijn om het basisidee te veranderen.

Laten we voor de grap een rekenvoorbeeldje nemen. Als de snelheid van computers elke anderhalf jaar verdubbeld is, is hij elke vijf jaar vertienvoudigd, elke vijftien jaar verduizendvoudigd, en bijv. sinds 1970 ongeveer een miljoen keer zo groot geworden. (Ik kan er wat naast zitten, heb nu geen zin om het op te zoeken, voor het idee maakt het niet uit)
Omdat het een exponentiële groei is, is ook de eerste afgeleide sinds die tijd met een factor miljoen toegenomen.

Laten we voor het gemak aannemen dat de groei van de snelheden van computers (door technologische vooruitgang) lineair is in de hoeveelheid middelen die daartoe wordt ingezet. (voor constante t)

Laten we voor het gemak aannemen dat de hoeveelheid ingezette middelen (geen goed gedefinieerde grootheid natuurlijk; nogmaals, het gaat om het idee) ook exponentieel is gegroeid, en wel met een factor 100 sinds 1970 (zomaar een gok).

(Als iemand een site met cijfers weet, hou ik me aanbevolen; een probleem is dat je op de een of andere manier niet alleen de directe kosten van de ontwikkeling van nieuwe produkten mee moet rekenen, maar ook de algemene vooruitgang in bijv. de experimentele fysica)

Misschien is de hierboven genoemde groei wel niet lineair in de hoeveelheid ingezette middelen; toch zou het me verbazen als de effectiviteit van de ingezette middelen sinds 1970 met een factor van meer dan 100 of 1000 is toegenomen.

Delen we deze e-machten op elkaar, dan vinden we dat de groei van de computertechnologie per hoeveelheid ingezette middelen exponentieel is toegenomen, en wel met een factor 10.000 sinds 1970. Dat betekent een verdubbelingstijd van ~2-2.5 jaar. (schop me als ik een rekenfout maak)

Nemen we nu aan dat de groei in gebruikte middelen vanaf nu 0 is, dan kost het anderhalf keer zoveel tijd tot het punt waar een PC even hard rekent als een stel mensenhersenen als wanneer we naief veronderstellen dat de wet van Moore zonder meer op blijft gaan. Dus, dat gebeurt in 2035 in plaats van 2025.

Al deze schattingen zijn zo grof als wat; maar ik heb een paar conservatieve aannames gedaan, en wat je hier ook in stopt, het wordt moeilijk om er een tijdstip na bijv. 2050 uit te krijgen. Kwalitatief blijft het beeld hetzelfde. De moraal blijft: exponentiële processen gaan op den duur erg hard en zijn in die zin niet erg gevoelig voor een paar ordes van grootte vertraging.

Een andere manier waarop je kunt zien dat het niet grotendeels aan andere factoren is toe te schrijven: tussen 1998 en nu is (als het goed is) de snelheid van computers met een factor 10 gegroeid. Toch ben ik me niet bewust van een vergelijkbare explosieve groei in investeringen.


Als de singulariteit dus wordt tegengehouden door gebrek aan benodigde hardware, zal dat moeten zijn doordat de groei ophoudt exponentieel te zijn doordat bepaalde limieten bereikt worden. Dat zou kunnen gebeuren, maar het is niet vanzelfsprekend. Er zit een bovengrens aan wat je met de huidige soort chips kunt doen, en die zal men als het goed is over niet al te lange tijd bereiken. Er zijn meerdere technieken die de groei daarna zouden kunnen overnemen. Het zou kunnen dat die allemaal onwerkbaar zijn; erop rekenen doe ik niet.

Het is mijn doel ook niet aan te tonen dat er een singulariteit komt, of dat dat historisch noodzakelijk is. Mijn doel is alleen te laten zien dat de kans niet te verwaarlozen is, zodat het zin heeft moeite te doen om deze gebeurtenis zo goed mogelijk te laten verlopen. (Zie ook: Activism and Futurism)

Tenzij je killer-argumenten hebt tegen de meeste vormen van computertechnologie (en hersen-computer-integratietechnologie, en upload-technologie) die tot nu toe zijn voorgesteld voor de toekomst, en tenzij Lord Daemon zijn halting-problem-argument kan repareren op zo'n manier dat het ook op echte AIs van toepassing is (ik stel voor in de tussentijd dit te bekijken), is een technologische singulariteit één van de mogelijke toekomsten. Vanwege de mogelijke gevolgen is het daarom van groot belang er van tevoren goed over na te denken en de beginvoorwaarden ten goede te beïnvloeden; ben je het daarmee eens?

Verwijderd

Verwijderd schreef op 15 June 2003 @ 16:58:
[...]
Vanwege de mogelijke gevolgen is het daarom van groot belang er van tevoren goed over na te denken en de beginvoorwaarden ten goede te beïnvloeden; ben je het daarmee eens?
Redelijk. Wat ik met name wilde bestrijden is het rare limiet loze denken van sommige mensen, waarin ze ervan uit gaan dat het zonder meer logisch is dat bepaalde processen eindeloos doorgaan. (bijvoorbeeld over het al dan niet reizen met meer dan de licht snelheid.) Soms zijn er gewoon limieten waar je niet om heen kunt. En het is volkomen absurd om te denken op grond van de snelheid waarin computers zich in de laatste 30 jaar hebben ontwikkeld enig zinnig iets te zeggen over hoe het staat met de ontwikkeling over 30 jaar. Dat soort schatting moet je echt wel plusminus een paar ordes van grote namen
Persoonlijk verwacht ik inderdaad dat technologisch vooruit gang nog wel een per decennia zo door zal gaan, hoewel ik denk dat nadat we electronica op nanoniveau hebben er toch wel wat remming op zal treden.
Mijn twijfels met de berekenning omtrend een singulariteit zitten metname in het sommetje waarin men berekend wanneer er computer even veel computing power gaan hebben. Daarvoor zal je eerst goed moeten schatten hoeveel computing power je nodig hebt voor bewust zijn. Weten wij veel, lijkt me niet zomaar uit te drukken in flops.

Om nog ff op je stukje rekenwerk terug te komen. Je behandelde daar de effecten die ik noemde als exponetieel correcties in de tijd op de groei. Stel nou dat bijvoorbeeld de groeisnelheid van de technologie een exponetiele functie is van de hoeveelheid geinvesteerde resources. In dat geval zou de groei slecht linear met de tijd gaan nadat de investering niet meer groeien (natuurlijk zal hier wel ergens wat fase verschuiving optreden, omdat het gevolg van investeringen pas na enige tijd merkbaar is, etc.)
De groei van de kennis is natuurlijk niet zelfstandig een functie van de tijd. (als je op houdt met onderzoek gaan de ontdekkingen niet uit zichzelf door). Eerder is het functie van de investeringen. Als die lineair zijn en de groei is exponentieel met de investeringen, dan zitten we natuurlijk gewoon weer in het zelfde bootje. Ik wijs er alleen even op dat in de afgelopen twee decennia de computer markt zelf alleen al met een paar orde van grote is gegroeid. ( ik denk dat je tussen 1980 en 2000 nog best aardig een exponent kan fitten op het aantal computers in de wereld. pas sinds een jaar of wat begint die markt enig zins verzadigd te raken.). Wie weet wat er precies met die groei zal gebeuren. (maar ja ik geloof dat me punt wat dat betreft wel duidelijk is)

[ Voor 31% gewijzigd door Verwijderd op 15-06-2003 18:09 ]


Verwijderd

Verwijderd schreef op 15 June 2003 @ 17:56:
Weten wij veel, lijkt me niet zomaar uit te drukken in flops.
De neuronen in ons hoofd signalen van ongeveer 5 bits per keer transmitten, en dat 200 keer per seconde. Een rekensom waarin je het aantal neuronen in een stel mensenhersenen meeneemt, leert dat het menselijk brein op ongeveer 100 teraflop draait.

Purple Asci zou deze geschatte snelheid moeten halen. En dan is er nog Blue Gene\L, die op meer dan 350 teraflop moet komen te draaien.

Verwijderd

Verwijderd schreef op 15 juni 2003 @ 16:51:

Die opmerking heb je al gebruikt, en begint oud te worden. Kalmeer anders even, en reageer niet zo kinderachtig. Je begrijpt me simpelweg niet. Klaar.
Ik begrijp perfect wat je bedoelt met je lichaam is een tool. (ben het niet helemaal mee eens, maar ik begrijp de strekking). Wat wel duidelijk is, is dat jij niet echt begrijpt wat LD bedoelt met "ik ben mijn lichaam". Iets wat je meer in lijn moet zoeken van jouw verlangen naar haar. (overigens helemaal ter zijden zie ik de manipulatie van je haar groei heel anders dan manipulatie van bijv. je hersennen. Het eerst is meer een soort omgekeerde van naar de kapper gaan)

"Ik ben mijn lichaam" slaat op het feit, dat als je je lichaam als slechts een tool, je volledig voorbij gaat aan het belang dat dat lichaam voor je volledige identiteit. Je lichaam is een integraal deel van wie jij bent. Als je hand verliest, verlies je jezelf. In deze optiek, verandert het gebuik van bepaalde middelen in zekere zin dus dat werkelijk wie jij bent. Juist hierdoor kan dit je een goed beeld geven van wie je eigenlijk bent.

Mijn punt in mijn opmerkingen was, dat jouw tegen argument als je je hand verliest ben je nog dezelfde persoon. Op geen enkele manier de strekking van de opmerking ik ben mijn lichaam aantaste. En dat jij en LD volkomen langs elkaar heen aan het lullen waren. De redenering de LD ophing om te laten zien dat jouw tegen argument niet klopte, was echt wel 100% logisch zuiver. Een punt dat jij volkomen leek te negeren.

Verwijderd

Verwijderd schreef op 15 juni 2003 @ 18:09:
[...]


De neuronen in ons hoofd signalen van ongeveer 5 bits per keer transmitten, en dat 200 keer per seconde. Een rekensom waarin je het aantal neuronen in een stel mensenhersenen meeneemt, leert dat het menselijk brein op ongeveer 100 teraflop draait.

Purple Asci zou deze geschatte snelheid moeten halen. En dan is er nog Blue Gene\L, die op meer dan 350 teraflop moet komen te draaien.
nu ga je er van uit dat wat één neuron per keer doet te vergelijken is met één floating point operation. Dat lijkt me nogal kort door de bocht.

Verwijderd

Verwijderd schreef op 15 June 2003 @ 18:35:
[...]


nu ga je er van uit dat wat één neuron per keer doet te vergelijken is met één floating point operation. Dat lijkt me nogal kort door de bocht.
Het enige wat ik hierdeed was Kurzweil napraten. Lees z'n berekening nog eens na in z'n artikel. Wellicht werpt dat wat meer licht op de zaak.

Overigens hebben we het hier over grote getallen. Zoals Rex al aangaf, maakt het niet zo veel uit als je schattingen er wat naast zitten.

Verwijderd

Verwijderd schreef op 15 June 2003 @ 18:33:

"Ik ben mijn lichaam" slaat op het feit, dat als je je lichaam als slechts een tool, je volledig voorbij gaat aan het belang dat dat lichaam voor je volledige identiteit. Je lichaam is een integraal deel van wie jij bent. Als je hand verliest, verlies je jezelf.
Wat dat ook precies mogen betekenen... je unieke SOC blijft intact.
En dat jij en LD volkomen langs elkaar heen aan het lullen waren. De redenering de LD ophing om te laten zien dat jouw tegen argument niet klopte, was echt wel 100% logisch zuiver. Een punt dat jij volkomen leek te negeren.
Welnee. Ik en Rex zijn de twee rationele beleefden in deze draad. Het waren mijn omschrijvingen die genegeerd werden. Ook hierboven weer, waarin je beweert dat je jezelf verliest bij het verliezen van een hand. En dat terwijl ik toch duidelijk aangeef dat ik slechts over je SOC praat.

Overigens zijn er twee mensen nodig om langs elkaar heen te lullen. Als LD gelijk had. Dan ik ook.

Ik heb zelf namelijk erg duidelijk voor ogen waar ik over spreek: SOC's. Dat je SOC intact blijft bij het verliezen van een ledemaat, is evident.

Verwijderd

Trias
Wat ik met name wilde bestrijden is het rare limiet loze denken van sommige mensen, waarin ze ervan uit gaan dat het zonder meer logisch is dat bepaalde processen eindeloos doorgaan. (bijvoorbeeld over het al dan niet reizen met meer dan de licht snelheid.)
Over de vraag of vooruitgang in de techniek oneindig ver door kan gaan ben ik agnost. Het is niet zonder meer logisch dat het wel zo is, maar ook niet dat het niet zo is. Ik ga er niet van uit, omdat het moeilijk voor te stellen is dat er oneindig veel echt fundamentele dingen te ontdekken zijn; een eventuele eeuwigdurende vooruitgang zou dan gebaseerd moeten zijn op steeds complexere toepassingen van dezelfde wetenschap, misschien op steeds grotere schaal (al zijn daar weer kosmologische bezwaren tegen).

Als voorbeeld van een limiet waar je niet omheen kunt noem je de lichtsnelheid. Volgens mij is dat een goede illustratie van het feit dat je weliswaar niet natuurwetten kunt breken, maar dat er wel verrassend veel "loopholes" in blijken te zitten. In de speciale relativiteitstheorie kun je met zekerheid niet sneller dan het licht; maar de speciale relativiteitstheorie gaat over de Minkowskiruimte, en ons heelal is geen Minkowskiruimte. In de algemene relativiteitstheorie zijn er wel een paar manieren bekend waarop je in theorie sneller dan het licht zou kunnen (zoals de Alcubierre-warp en wormgaten); of die van toepassing zijn op ons heelal is erg dubieus, omdat je er vaak bijvoorbeeld exotische materie voor nodig hebt. Ik ga er daarom ook hier niet van uit dat we ooit (globaal) sneller dan het licht kunnen, maar laat wel de mogelijkheid open.

Als er zulke "loopholes" in de natuurwetten zijn die echt werken, kun je er zeker van zijn dat een technologisch geavanceerde superintelligentie die ook ten volle zal benutten. Zo niet, dan niet -- ik ben benieuwd, we kunnen nu nog niet weten waar de vooruitgang eindigt.

Ik hoop echter inmiddels duidelijk gemaakt te hebben dat deze vragen, hoe interessant ze ook zijn, los staan van de vraag of een technologische singulariteit mogelijk is.
Persoonlijk verwacht ik inderdaad dat technologisch vooruit gang nog wel een per decennia zo door zal gaan, hoewel ik denk dat nadat we electronica op nanoniveau hebben er toch wel wat remming op zal treden.
Maar als een superintelligent wezen toegang heeft tot nanotechnologie (op moleculair niveau) brengt dat al een enorme verandering teweeg ten opzichte van de wereld die wij kennen (en vergeet de gevolgen van een vergrote intelligentie op zichzelf al niet). Zie bijvoorbeeld Engines of Creation voor interessante speculaties.
Daarvoor zal je eerst goed moeten schatten hoeveel computing power je nodig hebt voor bewust zijn. Weten wij veel, lijkt me niet zomaar uit te drukken in flops.
Bedoel je met bewustzijn filosofische begrippen als qualia, of iets anders? In eerste instantie, voor een singulariteit, is intelligentie relevant en niet bewustzijn.

Ik zie niet waarom wat het menselijk brein doet niet uit te drukken is in flops. Het verwerkt maar eindig veel informatie; met een computer met een bepaald aantal ops zou je dezelfde informatie kunnen verwerken. Waar het eigenlijk om gaat, is de hoeveelheid ops die ongeveer nodig is om een intelligent denkende AI te maken; de hoeveelheid ops van het menselijk brein is daar toevallig een handige indicatie voor.

De schatting waar Codin het over had (10^14 ops, 100 Teraops) is geloof ik afkomstig van Hans Moravec, en is gebaseerd op een vergelijking van het menselijk netvlies met de hoeveelheid ops die het robots kost dezelfde informatie te verwerken als het netvlies (om de redundancy eruit te halen). In een ander interessant artikel beweert Nick Bostrom dat het redelijk (geen onderschatting) is dit te extrapoleren naar de rest van de hersenen, omdat de informatieverwerking in het netvlies op laag niveau gebeurt en je daarom zou verwachten dat het verder geoptimaliseerd is. (Hoe waar en geldig dat is kan ik niet beoordelen.)

Als je niet compenseert voor overbodige berekeningen die in de hersenen uitgevoerd worden en gewoon neuronen telt, kom je uit op een bovengrens van ongeveer 10^17 ops. Als de menselijke hersenen een quantumcomputer zijn zullen dit soort dingen wel niet opgaan, maar de kans daarop acht ik niet heel groot, en zelfs dan zou het in principe mogelijk moeten zijn dit na te bouwen (met andere quantumcomputers).
Stel nou dat bijvoorbeeld de groeisnelheid van de technologie een exponetiele functie is van de hoeveelheid geinvesteerde resources.
Maar volgens mij is dat niet zo, of tenminste niet in voldoend grote mate. Als je 2 keer zo veel mensen en 2 keer zoveel geld tegen een probleem aan gooit zul je het doorgaans lijkt me ongeveer 2 keer zo snel oplossen; misschien 1,5 of 3 of 4 keer zo snel, maar niet 100 keer zo snel.
In dat geval zou de groei slecht linear met de tijd gaan nadat de investering niet meer groeien
Nee, een exponent gedeeld door een exponent is meestal nog steeds een exponent; alleen als ze (bijna) even snel gaan heffen ze elkaar (bijna) op. Dat iets exponentieel is of niet zegt op zichzelf niet veel; je moet ook de groeifactor (of verdubbelingstijd) weten. Het grappige van de groei in computertechnologie (en ook op een paar andere gebieden) is dat het niet alleen (dubbel-) exponentieel gaat, maar ook nog eens met een korte verdubbelingstijd (1-2 jaar -- dat is haast niks).

[ Voor 3% gewijzigd door Verwijderd op 16-06-2003 01:19 ]


Verwijderd

Topicstarter
[quote]Fused schreef op 13 juni 2003 @ 20:14:
oeps... al wat ouder :)

[ Voor 56% gewijzigd door Verwijderd op 16-06-2003 10:11 ]


Verwijderd

Topicstarter
Ik zie hier zo af en toe voorbij komen dat je moet accepteren hoe je bent en niet de technologie moet nastreven om dit te verbeteren.

Daar ben ik het helemaal mee eens.

Ware het niet, dat we in een kapitalistische democratie leven waarin het recht van het merendeel en de dikste portefeuille telt.

Mussoline zei ooit:"Het toppunt van kapitalisme is fascisme."

Ik denk... nee, ik vrees... dat hij daar behoorlijk wat gelijk in heeft uiteindelijk.

Kijk naar de zichzelf met botox vullende, laser-haarimplantaties uitvoerende, ooggecorigeerde mens van tegenwoordig.

Stel je voor, je mocht 5000 euro uitgeven aan je uiterlijk. Wat zou je ermee doen?
Ik denk dat maar weinig mensen niets ermee zouden doen. Iedereen irriteerd zich wel aan een kleinigheidje en zou daar graag iets aan willen doen.
Is daarmee hun probleem opgelost? Nee, natuurlijk niet. Zonder die irritatie duikt wel een ander probleempje op. Ook daar moet wat aan gedaan worden... en zo gaat het maar door.

Nee, daar wordt je geen beter mens van nee.

Maar als je over 20 jaar geen werk hebt, omdat je intelligantie niet net als het gros van de mensen wat opgevoerd is, je je kinderen daardoor niet kunt voeren, je vrouw vraagt waarom je als enige in de stad nog baardgroei hebt en geen haar op je hoofd, de dokter je niet wil helpen zonder dat je je laat vaccineren tegen kanker met nanobots in je bloedbaan... ja, dan sta je voor de keuze:

Doe ik mee met deze samenleving, of laat ik al het contact schieten.

Had en heeft mussolini dan toch gelijk? Ik denk het wel. Maar mensen die nu hier roepen dat ze er niet aan mee willen doen, moeten wel beseffen dat het vrijwel onmogelijk is om er over 20 jaar niet aan mee te doen. Drinken die mensen nu ook geen energie drankjes, eten ze nu geen vitamine boter, tabletten en drankjes en gaan ze niet naar de sportschool?

Dat is de toekomst in het klein.

Verwijderd

Verwijderd schreef op 16 juni 2003 @ 01:15:

Maar volgens mij is dat niet zo, of tenminste niet in voldoend grote mate. Als je 2 keer zo veel mensen en 2 keer zoveel geld tegen een probleem aan gooit zul je het doorgaans lijkt me ongeveer 2 keer zo snel oplossen; misschien 1,5 of 3 of 4 keer zo snel, maar niet 100 keer zo snel.
Dit was ook met name bedoelt als een voorbeeld en het moge duidelijk zijn dat het niet klopt. Echter het is al een stuk realistischer dan directe koppeling aan de tijd, wat echt volkomen bullshit is.
Nee, een exponent gedeeld door een exponent is meestal nog steeds een exponent; alleen als ze (bijna) even snel gaan heffen ze elkaar (bijna) op. Dat iets exponentieel is of niet zegt op zichzelf niet veel; je moet ook de groeifactor (of verdubbelingstijd) weten. Het grappige van de groei in computertechnologie (en ook op een paar andere gebieden) is dat het niet alleen (dubbel-) exponentieel gaat, maar ook nog eens met een korte verdubbelingstijd (1-2 jaar -- dat is haast niks).
Moet je wel het voorbeeld goed lezen. Er werd door mij aangenomen dat de groeisnelheid (alleen) een functie is van de investeringen, als dan de investeringen constant zijn, dan is de groei lineair. Dit is wiskundig volledig correct. Ik vermoed alleen dat het als model niet echt realistisch is.
Ik waarschuw alleen tegen extrapolatie ad idiotum in systemen die dermate complex zijn als kennis ontwikkeling en economie. Anders bega je flatters als bijvoorbeeld het hele idee van de "nieuwe economie".
Hiertoe geef ik enkele altenatieve model die opzich met heel andere voorspellingen komen.

Verwijderd

Trias
Moet je wel het voorbeeld goed lezen. Er werd door mij aangenomen dat de groeisnelheid (alleen) een functie is van de investeringen, als dan de investeringen constant zijn, dan is de groei lineair.
Oh, zo. Ik had het wel goed gelezen, alleen ik had begrepen dat je bedoelde dat de groeisnelheid niet expliciet een functie was van de tijd, maar wel via het technologisch niveau (wat wel weer groeit als functie van de tijd). Net zoals een Hamiltoniaan vaak niet expliciet tijdsafhankelijk is maar toch impliciet tijdsafhankelijk via de coordinaten en impulsen. </jargon>

Aannemen dat de groei afhangt van de investeringen maar niet van het huidig niveau is absoluut niet realistisch. Om supercomputers van 1 megaflop naar 10 megaflops te brengen was niet een miljoen keer zo makkelijk als om ze van 1 teraflop naar 10 teraflops te brengen. (Tenminste, het zou me verbazen.)
Ik waarschuw alleen tegen extrapolatie ad idiotum in systemen die dermate complex zijn als kennis ontwikkeling en economie.
Eens; we kunnen niet met redelijke mate van zekerheid dit soort dingen extrapoleren. De wet van Moore is niet God.

Toch houdt hij al verrassend lang stand, ondanks dat zijn ondergang al een paar keer voorspeld is; ook de laatste jaren lijkt hij nog niet af te remmen. Als hij zal afwijken van wat we naief zouden denken, en als we alle factoren waarvan we weten dat ze negatief werken (zoals het hele verhaal van investeringen) meegerekend hebben, dan zit de onzekerheid net zo goed naar boven als naar beneden; het zou net zo goed sneller kunnen gaan dan we denken als langzamer.

Verwijderd

Verwijderd schreef op 16 juni 2003 @ 12:17:
Eens; we kunnen niet met redelijke mate van zekerheid dit soort dingen extrapoleren. De wet van Moore is niet God.

Toch houdt hij al verrassend lang stand, ondanks dat zijn ondergang al een paar keer voorspeld is; ook de laatste jaren lijkt hij nog niet af te remmen. Als hij zal afwijken van wat we naief zouden denken, en als we alle factoren waarvan we weten dat ze negatief werken (zoals het hele verhaal van investeringen) meegerekend hebben, dan zit de onzekerheid net zo goed naar boven als naar beneden; het zou net zo goed sneller kunnen gaan dan we denken als langzamer.
Idd, als men begint met 3d- chipsets zou het wel eens kunnen dat de evlotie versnelt tov Wet van Moore.

Verwijderd

En stel dat ooit quantumcomputers met flink wat qubits bruikbaar worden, dan schieten je grafieken helemaal door het plafond.

In hoeverre je daar dan wat aan hebt hangt als ik het goed begrijp af van de vraag voor hoeveel soorten problemen er snelle quantumalgoritmen zijn.

Verwijderd

Topicstarter
scheppen we geen god als we zo'n systeem in het stopcontact pluggen?

een orakel waaraan we alles kunnen voorleggen, waarna de antwoorden eruit komen die we misschien zelf niet eens begrijpen?

Zo'n machine zou onze evolutie kunnen simuleren. Met een enorme rekenkracht is dat mogelijk toch? Gooi me even niet dood met de technische specs, want dat is onzin in deze.

Die machine (vind ik geen goed woord, maar heb geen andere) zou dan als alle natuurkundige wetten en bouwstenen van ons universum bekend zijn, het ontstaan van het heelal, het zonnestelsel, de aarde en de evolutie kunnen simuleren. Miljoenen jaren worden in seconden verwerkt.
Misschien wel om zelf te leren hoe wij (als we het die vraag stellen) en eventueel de machine zelf (bij échte AI) onstaan is.


Is het dan niet mogelijk dat wij zelf in zo'n simulatie "bestaan" op dit moment en dat die machine onze werkelijk "God" is?
ik vind zelf deze theorie wat ver gaan, maar wiskundig onderbouwd en alles is het terug te vinden op :

http://www.simulation-argument.com/simulation.html

[ Voor 4% gewijzigd door Verwijderd op 16-06-2003 12:43 ]


Verwijderd

Verwijderd schreef op 16 juni 2003 @ 12:37:
En stel dat ooit quantumcomputers met flink wat qubits bruikbaar worden, dan schieten je grafieken helemaal door het plafond.

In hoeverre je daar dan wat aan hebt hangt als ik het goed begrijp af van de vraag voor hoeveel soorten problemen er snelle quantumalgoritmen zijn.
Vraag je je nu af wat je hebt aan supersnelle computers???
Verwijderd schreef op 16 juni 2003 @ 12:43:
Is het dan niet mogelijk dat wij zelf in zo'n simulatie "bestaan" op dit moment en dat die machine onze werkelijk "God" is?
Geloof dat dat mogelijk is, en later mss ook gedaan zal worden. Maar als de geschiedenis zich dan altijd in het programma exact herhaalt, zijn er dus oneindig veel programma's in dat originele programma op die comp.(want in de eerste geschiedenis die men zo nabootst maakt men dan op een gegeven moment ook de computer die de geschiedenis nabootst, enz...) Dat zou dus betekenen dat die erste computer oneindig snel is...
Tja, stemt tot denken.

[ Voor 44% gewijzigd door Verwijderd op 16-06-2003 13:06 ]


  • Delerium
  • Registratie: Mei 2000
  • Niet online

Delerium

Mythology

Verwijderd schreef op 16 June 2003 @ 12:43:
Die machine (vind ik geen goed woord, maar heb geen andere) zou dan als alle natuurkundige wetten en bouwstenen van ons universum bekend zijn, het ontstaan van het heelal, het zonnestelsel, de aarde en de evolutie kunnen simuleren. Miljoenen jaren worden in seconden verwerkt.
Misschien wel om zelf te leren hoe wij (als we het die vraag stellen) en eventueel de machine zelf (bij échte AI) onstaan is.
Wetenschapper to the rescue.....

Dat is een klassieke gedachte die fundamenteel onmogelijk is. De Kat van Schrödinger of Heisenberg onzekerheidsrelatie zorgen ervoor dat het absoluut 100% onweerlegbaar onmogelijk blijft. God Dobbelt namelijk.

Om daarmee verder te gaan: een machine kan als een geavanceerd telraam zijn berekeningen doen, maar problemen zijn niet in 1 formule/berekening te vatten. Een systeem dat 1 miljard keer complexer is als de gemiddelde XP-bak zal nog steeds niet in de buurt komen van de zelfstandigheid van een mier. Mieren werken namelijk met geintegreerde systemen en een verbluffend kleine instructie-set.

Verwijderd

Topicstarter
Ecteinascidin schreef op 16 June 2003 @ 12:51:
[...]

Wetenschapper to the rescue.....

Dat is een klassieke gedachte die fundamenteel onmogelijk is. De Kat van Schrödinger of Heisenberg onzekerheidsrelatie zorgen ervoor dat het absoluut 100% onweerlegbaar onmogelijk blijft. God Dobbelt namelijk.

Om daarmee verder te gaan: een machine kan als een geavanceerd telraam zijn berekeningen doen, maar problemen zijn niet in 1 formule/berekening te vatten. Een systeem dat 1 miljard keer complexer is als de gemiddelde XP-bak zal nog steeds niet in de buurt komen van de zelfstandigheid van een mier. Mieren werken namelijk met geintegreerde systemen en een verbluffend kleine instructie-set.
Ik hoop dat je gelijk hebt, anders heb ik voor niks mijn kraslot gekocht net :)

Nee, maar zonder gekheid, ik vind de theorie zelf ook erg ver gezocht, maar stél dat we ooit een evolutie simuleren, heeft dat alleen zin als de "bewoners" een bewustzijn hebben. Anders verloopt de gehele evolutie anders en zijn oorlogen en uitvindingen kortom, de culturen ingeprogrammeerd.

En áls het voor ons ooit mogelijk is zo'n simulatie te draaien, is de kans volgens de theorie achter mijn quote zo groot, dat we waarschijnlijk zelf ook in zo'n simulatie zitten.

Zo'n simulatie hoeft namelijk niet exact hetzelfde te lopen zoals die van zijn schepper. Een systeem leert er enorm veel van, door bijvoorbeeld 1000 mogelijke evoluties op aarde te doorlopen en te kijken wat er gebeurd. Dit kan voor het systeem slecht minuten in beslag nemen, afhankelijk van de capaciteit. 1000 evoluties met daarin onder andere mensen met digitaal bewustzijn per post-human-beschaving, zorgt ervoor dat er een factor 1000 zoveel simulatie-werelden zijn, dan "werkelijke".


De reply een stukje hierboven, over een simulatie in een simulatie in een simulatie in een simulatie etc... ja, daar heeft die kerel het volgende over te zeggen:

Stel dat wij zover komen dat wij een simulatie laten draaien, maar zelf ook in een simulatie zitten, sluit onze simulatie misschien wel, omdat het niet meer interessant is te onderzoeken en alleen maar vreselijk veel rekenkracht vraagt.

Nogmaals: ik vind het zelf ver gezocht, maar theoretisch heeft hij een aardig verhaal neergezet.

[ Voor 4% gewijzigd door Verwijderd op 16-06-2003 13:57 ]


Verwijderd

Verwijderd schreef op 16 June 2003 @ 13:36:
[...]

Zo'n simulatie hoeft namelijk niet exact hetzelfde te lopen zoals die van zijn schepper. Een systeem leert er enorm veel van, door bijvoorbeeld 1000 mogelijke evoluties op aarde te doorlopen en te kijken wat er gebeurd. Dit kan voor het systeem slecht minuten in beslag nemen, afhankelijk van de capaciteit. 1000 evoluties met daarin onder andere mensen met digitaal bewustzijn per post-human-beschaving, zorgt ervoor dat er een factor 1000 zoveel simulatie-werelden zijn, dan "werkelijke".
Nou maak je maar nie te veel zorgen. Als je een systeem zou hebben, dat het universum simuleert op het kleinste nieveau, dan heb je simpel weg een systeem nodig dat groter is dan het universum. (naast quantum mechanische complicaties, die het sowieso onmogelijk maken) Immers je zal van elk deeltje (op z'n minst) zijn plaats en snelheid op moeten slaan. Nu zal uit eindelijk het niet bepaalt mogelijk zijn om je opslag medium zo te maken dat hij hij minder dan een deeltje par getal nodig heeft. Ergo om alle info over het universum op te slaan zal je op z'n minst alle deeltjes in het universum moeten gebruiken. (en al zou je ze bij elkaar kunnen krijgen, dan nog heeft je systeem debiel grote afmetingen, waardoor het nooit snel kan zijn.

Doet me denken aan een quote, weet niet meer van wie, maar ging ongeveer als volgt: De meest effieciente simulatie van het universum is het universum zelf.

Verwijderd

De wet van Moore wordt in stand gehouden juist door de leveranciers van computer producten. Veel computer gerelateerde producten zijn al veler malen verder en liggen op de plank te wachten tot de tijd rijp is. bijvoorbeeld. Dvd technologie. Een standaard dvd kan in theorie al een Peta-byte bevatten aan informatie. (reeds getest in Japan.)
Een Peta-byte aan informatie is al een veelvoud van wat het internet nu is.
Maar dit zijn nog prototype producten. Dit instant houden wordt tevens gedaan om een deel van de ontwikkelkosten er uit te halen.

Zo zijn er op het gebied van processorkracht ook gigantische vooruitgangen geboekt.
Bv. de huidige generatie van processoren zijn clockbased, dat wil zeggen dat elk onderdeel
zich synchroniseert aan de hand van de interne klok. Men is nu een ‘clockless’ systeem aan het ontwikkelen. Dus zonder klok gerelateerde processen wat als voordeel heeft dat dataverwerking vele male sneller gaat want men kan dan resources toekennen naargelang men de kracht nodig heeft binnen een bepaald proces. En dan hebben we het nog niet eens over de quantum computers.

Maar de grootst ontwikkeling is denk ik te verwachten in software hoek. Steeds meer wordt de basis gelegd voor een goed fundament aan tools/middelen zodat onderzoeken steeds preciezer worden gedaan en sneller. Wat zal resulteren in nog meer knowhow over hoe de natuur werkt. Pas toen men een microscoop had kon men de biologie gaan bestuderen. En kijk eens waar dat naar toegevloeid heeft.

Maar softwaregroei is afhankelijk van de hardwaregroei en visa versa dus deze zullen elkaar instant houden. Dit alles zal zeker leiden tot een verbetering van onze leef omstandigheden.
Hoe wij onszelf ziekte vrij kunnen maken, en reparaties kunnen doen die ons lichaam verbeteren ipv gewoon beter maken want voorkomen is nog altijd beter dan genezen.

Wat we dus wel kunnen concluderen is dat vooruitgang technologiewijs dubbel cumulatief is zo als Kurzwei voorspelde. (NL hardware stijgt volgens Moore, maar de software ook.)

Maar de echte explosie van technologisch vooruitgang is pas te verwachten wanneer "energie" goedkoop/gratis zal zijn. en in ongelimiteerde hoeveelheden aanwezig zal zijn. Bijvoorbeeld doormiddel van bacteriën die elektriciteit produceren of door BV het Helium-3 project van NASA. Dit zijn bronnen van energie die vrijwel onuitputbaar zijn.

Om het moment dat energie productie op het niveau is dat het meer oplevert dan het kost
gaan we pas echt de goede richting op. Want dat zou betekenen dat iedereen en dan bedoel ik ook echt iedereen geholpen kan worden van zijn problemen.

Geld is namelijk onze vervanger voor vrije energie. NL, wat wij nu doen met geld kan je ook doen met energie. En op het moment dat informatie en energie vrij zijn de mogelijkheden van onze planeet pas echt eindeloos.

De mens is een dynamisch wezen, hij past zich aan naargelang de omstandigheden.
en kiest gemakshalve voor de makkelijkste weg de weg van minste weerstand.

En voor de mensen "die tegen zijn" ...tja die steven vanzelf toch uit. })

Verwijderd

Rey Nemaattori schreef op 13 juni 2003 @ 18:31:
[...]

Uiteraard is onstervelijkheid zelfoverschatting, als je geplet word ga je evengoed dood, maar sterven door ouderdom kan en zal steeds verder worden uitgesteld, mishcien is er een grens, mischien zullen we duizenden jaren oud kunnen worden...
In de Bijbel werden mensen bijna 1000 jaar oud, maar wij slechts 100 als we dat al halen... door de vervuiling van onze wereld worden we alleen maar steeds jonger.... de vervuiling van onze wereld gaat sneller dan de vooruitgang van de wetenschap zodat we niet veel ouder worden.....
Bovendien hebben de mensen van de huidige technologie de toutjes zodanig in handen dat ze innovaties in de weg staan...
Denk maar aan de waterstof cel in een auto.... dat is ook nog niet doorgebroken.
Dus de mens en de natuur zorgt er wel voor dat ze niet onstervelijk worden...

Bovendien kun je de GEEST/ ZIEL niet klonen zodat er op dat gebied weinig te halen valt....

Verwijderd

Verwijderd schreef op 17 June 2003 @ 13:30:
[...]


In de Bijbel werden mensen bijna 1000 jaar oud, maar wij slechts 100 als we dat al halen... door de vervuiling van onze wereld worden we alleen maar steeds jonger.... de vervuiling van onze wereld gaat sneller dan de vooruitgang van de wetenschap zodat we niet veel ouder worden.....
Bovendien hebben de mensen van de huidige technologie de toutjes zodanig in handen dat ze innovaties in de weg staan...
Denk maar aan de waterstof cel in een auto.... dat is ook nog niet doorgebroken.
Dus de mens en de natuur zorgt er wel voor dat ze niet onstervelijk worden...

Bovendien kun je de GEEST/ ZIEL niet klonen zodat er op dat gebied weinig te halen valt....
Euhm... :/
Ten eerste zou ik de bijbel niet als waarheidsgetrouwe bron aanhalen.
Ten tweede ben je gewoon totaal fout. Vroeger werd men dertig, maximum 40. Nu wordt men 75,80 maximum 110 -120.
We worden ZEKER steeds ouder, ondanks het verkeer, de vervuiling, ...

Verwijderd

Topicstarter
Verwijderd schreef op 17 June 2003 @ 13:30:
[...]


In de Bijbel werden mensen bijna 1000 jaar oud, maar wij slechts 100 als we dat al halen... door de vervuiling van onze wereld worden we alleen maar steeds jonger.... de vervuiling van onze wereld gaat sneller dan de vooruitgang van de wetenschap zodat we niet veel ouder worden.....
Bovendien hebben de mensen van de huidige technologie de toutjes zodanig in handen dat ze innovaties in de weg staan...
Denk maar aan de waterstof cel in een auto.... dat is ook nog niet doorgebroken.
Dus de mens en de natuur zorgt er wel voor dat ze niet onstervelijk worden...

Bovendien kun je de GEEST/ ZIEL niet klonen zodat er op dat gebied weinig te halen valt....
Sorry maar mijn bovenbuurman heeft al gereageerd op je bron en je volkomen onwaarheid dat mensen steeds jonger worden. Zelfs de spelling in onwaar :)

De waterstofcel in de auto komt vanzelf hoor. Waarom moeten nieuw uitvindingen altijd in 2 weken op de plank liggen? Kijk verder dan volgende week vrijdagmiddag.

Verwijderd

Verwijderd schreef op 17 June 2003 @ 13:09:
Maar de echte explosie van technologisch vooruitgang is pas te verwachten wanneer "energie" goedkoop/gratis zal zijn. en in ongelimiteerde hoeveelheden aanwezig zal zijn. Bijvoorbeeld doormiddel van bacteriën die elektriciteit produceren of door BV het Helium-3 project van NASA. Dit zijn bronnen van energie die vrijwel onuitputbaar zijn.
De bronnen die jij noemt zijn juist bronnen die erg moeilijk zijn. Voor veel helium-3 moet je naar de maan en bacteriën kunnen nooit meer energie produceren dan dat je er in stopt, wat dan wel weer afval en zonlicht zou kunnen zijn. Een voorbeeld van iets dat wel voor ongelovelijke hoeveelheden energie kan zorgen is kernfusie.

Verwijderd

De conversie van de energie naar bruikbare schoone energie is ook het probleem.
energie is er genoeg maar niet in de juiste makkelijk handbare vorm.

Het waren ook maar voorbeelden zo zijn er nog een aantal projecten die men aan het onderzoeken zijn. Maar om even bij de bacterien te blijven daar is al een variant van nl waar suiker omgezet wordt naar electriciteit en men een lampje van 30watt, 8 uur kan laten branden op 2 suikerkontjes. Ook las ik laatst dat er een ontdekking was gedaan tussen kalium plus water en electrolise maar goed dat klonk me iets te veel als een hoaqs.

om nog even terug te op computers. ik zag net op newscientist http://www.newscientist.com/news/news.jsp?id=ns99993838 dat men een Nanotube chip kan maken die 10 gigabit aan info kan opslaan. in 3 jaar verwachten ze een bruikbaare versie te hebben.

[ Voor 11% gewijzigd door Verwijderd op 17-06-2003 15:04 ]


Verwijderd

Verwijderd schreef op 16 June 2003 @ 10:20:
Ware het niet, dat we in een kapitalistische democratie leven waarin het recht van het merendeel en de dikste portefeuille telt.
Dat is een tegenstrijdigheid: het merendeel heeft niet een dikke portefeuille.

Bovendien is er nog een grondwet, waardoor niet zonder meer het recht vd meerderheid geldt (uitgangspunt vd grondwet=iedereen heeft dezelfde rechten).

Verwijderd

Topicstarter
Verwijderd schreef op 18 juni 2003 @ 16:03:
[...]

Dat is een tegenstrijdigheid: het merendeel heeft niet een dikke portefeuille.

Bovendien is er nog een grondwet, waardoor niet zonder meer het recht vd meerderheid geldt (uitgangspunt vd grondwet=iedereen heeft dezelfde rechten).
Goed lezen... ik zei: "het merendeel en de dikste portefeuille. :)

Verwijderd

Zeg Staphylococcus_Rex, kun je eens contact met me opnemen via de mail in m'n profile please (je hebt er zelf geen in je profile) ?

Tnx.

[ Voor 20% gewijzigd door Verwijderd op 18-06-2003 19:18 ]


Verwijderd

Verwijderd schreef op 18 June 2003 @ 17:07:
[...]
Goed lezen... ik zei: "het merendeel en de dikste portefeuille. :)
Dat is precies wat ik las, en waarom ik zeg dat het een tegenstrijdigheid is; het merendeel en de dikste portefeuille gaan niet samen (geen "en") omdat het merendeel niet de dikste portefeuille heeft.

De praktijk is dat wel de dikste portefeuille maar niet de meerderheid de dienst uitmaakt, al was het ooit anders bedoeld.

  • Eelke Spaak
  • Registratie: Juni 2001
  • Laatst online: 07:34

Eelke Spaak

- Vlad -

Verwijderd schreef op 17 June 2003 @ 13:09:
(...)
Een Peta-byte aan informatie is al een veelvoud van wat het internet nu is.
(...)
Euhm, alleen de database van Google bestaat al uit een aantal petabytes. Het internet in totaal is, zoals het nu is, dus vele petabytes groot.

TheStreme - Share anything with anyone


Verwijderd

Ik had het verhaal van Kurzweil al gelezen en ik weet zeker dat tijdens mijn leven het mogelijk is om een robot te maken die minstens een IQ heeft van 150. Aangezien het naar mijn idee, nu al mogelijk is om er een in hardware te implementeren, maar dat ik volgens mij veel te duur. IBM heeft het wel gedaan, en die zijn ze nu aan het testen (hij heeft geloof ik 6 miljoen "cellen", die dan allemaal weer met 6 andere zijn verbonden).

Er is ooit berekend dat een mens nooit meer dan 10^26 operaties uit kan voeren per seconde. Dus op het moment dat we een processor hebben die dat kan dan is het zeker mogelijk om een intelligente machine zelfs in software te implementeren. Ik weet ook bijna zeker dat de processor snelheden alleen maar exponentioneel exponentioneel sneller worden.

Ik geef niet bijster veel argumenten, maar die staat wel op kurzweil.net. Ik heb er niet echt veel aan toe te voegen.

Ik heb trouwens ook het idee, dat mensen die geen technische opleiding doen, meteen zeggen:"Dat kan niet".

Terwijl ze tegelijkertijd zeggen: 10 jaar geleden was er de video, nu is er de DVD, en over 5 jaar komt de weet ik veel wat...
PC's en alle elektronische apparaten worden als maar sneller langzamer(relatief dan natuurlijk). Ik vind dat je het zelfs op dit moment al het begin van de Singulariteit ziet gebeuren, aangezien sommige mensen het nu al niet meer bij kunnen houden.

P.S. Ik ben me heel goed er van bewust wat de Singulariteit inhoudt.

Ik zou deze discussie wel eens terug willen zien over 30 jaar, maar zolang worden topics denk ik alleen niet bewaard. :)

Verwijderd

deels in reactie op gang-ster:

Dat technologische ontwikkelingen steeds sneller gaan valt m.i. niet te ontkennen. Ook ziet er het niet naar uit dat die versnelling binnenkort zal afnemen. Of die versnelling eindeloos door zal gaan en dus op een gegeven moment praktisch oneindig snel zal gaan, is minder zeker.
Ik denk wel dat ons nog een paar spectaculaire technologische doorbraken te wachten staan, maar niet heel binnenkort.

Het creeren van mens-achtige AI wordt algemeen gezien als een "hard problem". Ook het beste hardwarematig neural net wat we nu zouden kunnen bouwen (niet lettend op kosten, wel op wat technologisch haalbaar is), blijft ver achter bij de menselijke hersenen. Je kan ook niet zomaar het aantal instucties per seconden ve CPU vergelijken met de menselijke hersenen omdat het een heel ander soort instructies zijn.
Dan is er nog het probleem van het programmeren (trainen) van zo'n complex netwerk; een mens doet er zeker zo'n 20 jaar over om goed getraind te worden. Een mens traint bovendien voor een groot deel zichzelf, oa dankzij de zintuigen en eigen mobiliteit. Een mens-achtige AI zou ook op een mens-achtige manier mens-achtige ervaringen op moeten kunnen doen.
Juist mbt AI zijn er tot nu toe alleen maar te optimistische voorspellingen gedaan, het bleek iedere keer weer tegen te vallen.

Maar in princiepe lijkt me zo'n AI wel denkbaar, en het is niet uit te sluiten dat AI ooit slimmer wordt dan de mens. Als dat gebeurt kan de versnelling van technologische ontwikkeling in princiepe nog meer versnellen; een superieure AI kan dingen ontdekken die de mens niet eens kan begrijpen.
Die AI kan dan ook zichzelf verbeteren, en dan is het einde dus zoek. Of dat ten goed of ten kwade zal zijn valt niet te voorzien, en of het ooit zo ver zal komen is nog maar de vraag.

Maar de mogelijkheid lijkt me niet geheel irreel, en omdat de consequenties zeer ingrijpend zouden kunnen zijn, is het m.i. wel iets waar we voor moeten oppassen.

  • Eelke Spaak
  • Registratie: Juni 2001
  • Laatst online: 07:34

Eelke Spaak

- Vlad -

Veel mensen in deze topic hebben het idee dat de Singulariteit iets is waar 'oneindig snel groeiende' techniek voor nodig is. Dat is helemaal niet het geval!

De Singulariteit is het punt waarop wij mensen een groter dan menselijke Kunstmatige Intelligentie zullen hebben gecreëerd. De kern van dit idee is dat we met geen mogelijkheid kunnen voorspellen wat deze intelligentie zal doen of denken; als we dat wel konden waren we zelf namelijk al zo slim. Daarom is de term 'singulariteit' zeer toepasselijk uit de natuurkunde geleend: een punt (gebied) waarvoorbij we met geen mogelijkheid kunnen voorspellen wat daarbinnen gebeurt; onze natuurwetten gelden daar niet meer.

De 'oneindig snel groeiende' techniek hoeft helemaal niet oneindig te groeien voordat er een Singulariteit kan plaatsvinden. De erg snel (en dus niet oneindig snel) groeiende techniek wordt alleen aangevoerd als argument vóór het feit dat het technisch mogelijk zal zijn groter dan menselijke intelligentie te creëren.

TheStreme - Share anything with anyone


Verwijderd

Vladimir G. schreef op 20 juni 2003 @ 17:31:
[...]

Euhm, alleen de database van Google bestaat al uit een aantal petabytes. Het internet in totaal is, zoals het nu is, dus vele petabytes groot.
Leuk dat je echt weet waar je het overhebt!!

Googles hardware info kan je hier vinden:
http://www.google.com/appliance/hardware.html

En de informatie over Dvd's kan je hier vinden:
nieuws: DVD met miljoen maal hogere capaciteit ontwikkeld
http://frontpage.fok.nl/news.fok?id=25848

Conclusie googles machines hebben 190 GB hdd per stuk.

En volgens mij verwar jij Exabyte met Petabyte. Want het internet is wel een paar Exabyte groot (en dan heb ik het wel over de publiek toegankelijke machines./ want ik weet ook wel dat er rekencentra zijn met enkele Petabytes aan storage voor supercomputers IBM maakt die storage solutions namelijk.).

voor de goede orde
4,7 Petabyte (ruim 5.000.000.000.000 Megabyte) is dus wat misschien mogelijk is voor een enkele Dvd in de toekomst.

Latez

Verwijderd

Topicstarter
Vladimir G. schreef op 21 June 2003 @ 20:16:
Veel mensen in deze topic hebben het idee dat de Singulariteit iets is waar 'oneindig snel groeiende' techniek voor nodig is. Dat is helemaal niet het geval!

De Singulariteit is het punt waarop wij mensen een groter dan menselijke Kunstmatige Intelligentie zullen hebben gecreëerd. De kern van dit idee is dat we met geen mogelijkheid kunnen voorspellen wat deze intelligentie zal doen of denken; als we dat wel konden waren we zelf namelijk al zo slim. Daarom is de term 'singulariteit' zeer toepasselijk uit de natuurkunde geleend: een punt (gebied) waarvoorbij we met geen mogelijkheid kunnen voorspellen wat daarbinnen gebeurt; onze natuurwetten gelden daar niet meer.

De 'oneindig snel groeiende' techniek hoeft helemaal niet oneindig te groeien voordat er een Singulariteit kan plaatsvinden. De erg snel (en dus niet oneindig snel) groeiende techniek wordt alleen aangevoerd als argument vóór het feit dat het technisch mogelijk zal zijn groter dan menselijke intelligentie te creëren.
Helemaal mee eens.

De vraag over singulariteit is niet óf het kan, maar wannéér het gebeurd.

Het is gewoon een term voor het moment dat er een kunstmatig systeem in het stopcontact wordt gestoken dat door middel van AI een hogere intelligentie heeft, dan de mens tot nu toe behaald heeft.

Dat geldt overigens óók voor bijvoorbeeld de middelen die nu onderzocht zijn om kunstmatig je eigen hersenen zodanig te upgraden, zodat de bovengrens van onze intelligentie verschoven wordt.


Probeer je 's in te denken wat er met de wereld om je heen gebeurd in slechts een paar jaar tijd als we voor die tijd de wereld niet vernietigd hebben. Stél dat het over 30 jaar gebeurd... waar ben je dan nu mee bezig? Hoe bizar gaat de wereld om je heen er wel niet uit zien? Alles wat je maar kunt bedenken zou misschien wel mogelijk zijn, binnen de grenzen van de natuurkundige wetten die we nu kennen.

Wat denk je van een gewichtloze kamer in je huis over 30 jaar? Hoe oud ben je dan? Wat denk je van een auto zonder stoelen, maar met een bed, zodat je al slapende naar je bestemming gereden wordt met 400 km per uur, zonder kans op ongelukken, omdat alle auto's in een netwerk gekoppeld zijn? Wat denk je van teleportatie naar spanje in een dag? Moeten er überhaupt nog mensen werken? Zijn er nog scholen of plug je een stekker in je achterhoofd...?

Misschien zijn 1 of meer van deze voorbeelden straks wel realiteit. Misschien niet binnen 30 jaar, maar de meesten van ons maken het nog wel mee. Kijk om je heen. Dit is de laatste keer dat je de wereld in deze staat ziet. Morgen is 'ie weer anders.

  • Eelke Spaak
  • Registratie: Juni 2001
  • Laatst online: 07:34

Eelke Spaak

- Vlad -

Verwijderd schreef op 22 juni 2003 @ 11:59:
[...]


Leuk dat je echt weet waar je het overhebt!!
Dank... :?
Googles hardware info kan je hier vinden:
http://www.google.com/appliance/hardware.html

En de informatie over Dvd's kan je hier vinden:
nieuws: DVD met miljoen maal hogere capaciteit ontwikkeld
http://frontpage.fok.nl/news.fok?id=25848

Conclusie googles machines hebben 190 GB hdd per stuk.

En volgens mij verwar jij Exabyte met Petabyte. Want het internet is wel een paar Exabyte groot (en dan heb ik het wel over de publiek toegankelijke machines./ want ik weet ook wel dat er rekencentra zijn met enkele Petabytes aan storage voor supercomputers IBM maakt die storage solutions namelijk.).
Latez
Sorry, maar volgens mij verwar jij het één en ander...:
Verwijderd schreef op 17 juni 2003 @ 13:09:
(...)
Een Peta-byte (mijn nadruk) aan informatie is al een veelvoud van wat het internet nu is.

TheStreme - Share anything with anyone


Verwijderd

Vladimir G. schreef op 21 June 2003 @ 20:16:
Daarom is de term 'singulariteit' zeer toepasselijk uit de natuurkunde geleend: een punt (gebied) waarvoorbij we met geen mogelijkheid kunnen voorspellen wat daarbinnen gebeurt; onze natuurwetten gelden daar niet meer.
Overigens is het niet zo handig geleende term aangezien in de natuurkunde het voorkomen van singulariteiten in een theorie als bewijs wordt gezien dat een theorie incorrect of in iedergeval onvolledig is. Daarom zullen natuurkundigen (zoals ik) je automatisch met nogal wat scepsis aankijken als je zegt ik voorspel een singulariteit.

Verwijderd

Kerel wat doe je moeilijk dan bak je toch 2 dvdtjes.

Verwijderd

Topicstarter
Verwijderd schreef op 24 juni 2003 @ 13:21:
Kerel wat doe je moeilijk dan bak je toch 2 dvdtjes.
Volgens mij heeft de singulariteit geen ene ruk met dvd's te maken.

Verwijderd

Verwijderd schreef op 24 June 2003 @ 13:21:
Kerel wat doe je moeilijk dan bak je toch 2 dvdtjes.
???

Verwijderd

1 petabyte is 10^15 byte, 1 exabyte is 10^18 byte. Misschien lost dit wat verwarring op. :)

Trias
Overigens is het niet zo handig geleende term aangezien in de natuurkunde het voorkomen van singulariteiten in een theorie als bewijs wordt gezien dat een theorie incorrect of in iedergeval onvolledig is.
Vaak wel, maar dat is meer vanwege de filosofische overtuigingen van veel fysici (die lang niet door alle fysici gedeeld worden) dan omdat je theorie dan wiskundig of logisch inconsistent is. De ART bijvoorbeeld bevat allerlei singulariteiten; toch is het logisch gezien een prima consistente theorie. Een singulariteit is daar niet een fysisch punt op het ruimtetijd-manifold, maar de eigenschap dat de kromming in een bepaald gebied naar oneindig gaat (en dat een lichtstraal in een eindige tijd van het manifold af valt).

Hoogstens kun je zeggen dat zo'n theorie lelijk is, of dat er wat problemen ontstaan met determinisme en randvoorwaarden.
Daarom zullen natuurkundigen (zoals ik) je automatisch met nogal wat scepsis aankijken als je zegt ik voorspel een singulariteit.
Ja, totdat je erbij vertelt dat je niet letterlijk een fysische singulariteit bedoelt, hoop ik. Ik zou geen woord kunnen bedenken dat de lading wel in één keer zonder verwarring overbrengt.

"Singulariteit" is op zich een heel respectabel woord. Als ze het nou de "Grote Holistische Quantum-Transcendentie" hadden genoemd, OK. :)

Verwijderd

Verwijderd schreef op 24 June 2003 @ 17:04:
Vaak wel, maar dat is meer vanwege de filosofische overtuigingen van veel fysici (die lang niet door alle fysici gedeeld worden) dan omdat je theorie dan wiskundig of logisch inconsistent is. De ART bijvoorbeeld bevat allerlei singulariteiten; toch is het logisch gezien een prima consistente theorie. Een singulariteit is daar niet een fysisch punt op het ruimtetijd-manifold, maar de eigenschap dat de kromming in een bepaald gebied naar oneindig gaat (en dat een lichtstraal in een eindige tijd van het manifold af valt).
Nou noem je precies een punt van de natuurkunde, waar het voorkomen van singulariteiten juist wel gezien worden als een te kort koming. Alleen maakt men zich er niet zo zorgen om, omdat bij een zwart gat de object horizon toch het enige interessante is. Het voorkomen van een singulariteit in het centrum van een zwart gat wijst er juist op dat de theorie nog niet volledig is en uitgebreid zal moeten worden om ook consistent op korte afstanden te zijn. (quantumgravitatie)

Verwijderd

Maar de ART is toch al consistent op korte afstanden? Hij klopt alleen niet met de quantummechanica, en dat is de reden dat men een quantumzwaartekrachttheorie zoekt. Of in zo'n theorie nog singulariteiten voor zullen komen weet niemand, al hopen veel mensen van niet.

Misschien zijn er goede fysische redenen om te verwachten dat er in een quantumzwaartekrachttheorie geen singulariteiten voorkomen (ik weet het niet); maar dat is nog iets heel anders dan dat elke theorie met singulariteiten erin daarom a priori al niet klopt.

(Maar goed, dit is al vrij ver off topic)

[ Voor 1% gewijzigd door Verwijderd op 24-06-2003 21:54 . Reden: detypoficatie ]

Pagina: 1