Toon posts:

Hulp nodig bij een artikel over zelfrijdende auto's

Pagina: 1
Acties:

Onderwerpen

Vraag


Acties:
  • 0 Henk 'm!

Verwijderd

Topicstarter
Ha mensen, ik ben nieuw op dit forum en heb jullie hulp nodig.

Ik heb filosofie gestudeerd en doe nu een master journalistiek. Ik ben voor die opleiding bezig met een artikel over zelfrijdende auto's waarvoor ik informatie mis die ik nergens op internet kan vinden, maar wel per se wil weten. Ik heb het idee dat hier mensen zitten die me mogelijk kunnen helpen :)

Ik wil in het artikel antwoord geven op de volgende tweeledige vraag:

1) Wie bepaalt welke morele afwegingen zelfrijdende auto's maken en 2) met welke regels is dat op dit moment geprogrammeerd in de auto's die al rondrijden?

Dit is dus geen morele vraag wat zo'n auto zou moeten doen, maar puur een feitelijke: welke mensen (ik ga ervan uit dat het een team is) zitten hier op dit moment achter. De relevantie is natuurlijk wel ethisch van aard; er wordt door deze mensen tenslotte voor god gespeeld. Ik ben dus echt benieuwd of en hoe er geprogrammeerd wordt dat een auto bijvoorbeeld wél een kind moet proberen te ontwijken maar niet altijd een hond of een kat. Het lijkt me dat je daar bepaalde algemene regels voor verzint die je vervolgens met codetaal implementeert in je auto. Omdat er nu al auto's rondrijden - hoewel nog niet helemaal automatisch- MOETEN hier al keuzes over gemaakt zijn. En ik wil dus ook weten wie dit dan bepaalt.

Weet iemand hoe ik in contact kan komen met mensen die hierachter zitten (of iemand die gewoon precies weet hoe het zit)?

Dank!!

Lieve

[ Voor 3% gewijzigd door naitsoezn op 13-09-2016 21:20 . Reden: Niet vragen naar contact buiten het forum ]

Alle reacties


  • RoofTurkey
  • Registratie: Mei 2011
  • Laatst online: 15:50

RoofTurkey

PredatorKalkoen

Het lijkt me zeer onwaarschijnlijk dat er momenteel een programmeur bezig is om hond/kat/mens/aap/vis/etc. detectie in te bouwen in auto's, dus nee die overweging wordt nog niet zo geïnformeerd gemaakt. Volvo heeft wel groot wild detectie ingebouwd zitten, maar daar houdt het ook wel bij op. Zeker het verschil tussen een volwassen persoon en een kind is momenteel nog niet of heel moeilijk te zien voor een auto. Deze afweging wordt dus nog helemaal niet gemaakt in de auto's die je vandaag kunt kopen. Bij een gevaar wordt de noodrem manoeuvre uitgevoerd; ontwijken, afwegingen maken, etc. wordt dus (nog) niet gedaan. Mocht je meer informatie hierover willen zul je even contact moeten opnemen met de autonomie afdeling van een automerk, maar ik betwijfel of deze daar graag op ingaan.

Grillmeister


  • warhamstr
  • Registratie: Augustus 2008
  • Laatst online: 26-12-2023
Grappig dit, een (autonome) auto is ook in 2016 nog een ontzettend dom ding hoor.

P50/Xeon E3-1505M/64GB/2Tb/Q M2000M 4GB/4K


Verwijderd

Heb je enig idee hoe het uberhaupt werkt? Ik zou me eerst in de techniek verdiepen of een ander onderwep pakken.

Acties:
  • +4 Henk 'm!

  • EeePC
  • Registratie: April 2008
  • Laatst online: 22-08 13:46
Ik volg een master Automotive Technology aan de Technische Universiteit Eindhoven, dus ik ben meer van de techniek, dan het morele/ethische verhaal. ;) Maar volgens mij zitten er op dit moment gewoonweg nog geen morele afwegingen in de programmatuur. Dat is bovendien technisch gewoon heel lastig, of vrijwel onmogelijk.
Maar ik kan je aanraden om professor Maarten Steinbuch, of professor Henk Nijmeijer, beide van de TU/e, eens te benaderen voor evt. een interview. Steinbuch komt regelmatig in de media, en is bovendien een Tesla fan, en Nijmeijer houdt zich bezig met het onderzoek naar autonome rijden.

Linkje naar gegevens Steinbuch: https://www.tue.nl/en/employee/ep/e/d/ep-uid/19991858/
en naar gegevens Nijmeijer https://www.tue.nl/medewerker/ep/e/d/ep-uid/19970028/

[ Voor 4% gewijzigd door EeePC op 14-09-2016 10:44 . Reden: aanvullingen/verbeteringen ]


  • Rmg
  • Registratie: November 2003
  • Laatst online: 20:10

Rmg

De echte driverless cars (google cars) rijden heel defensief.

Dit soort ethische dilemma's zijn dan ook altijd best wel hypothetisch...

Verwijderd

Volgens mij worden dit soort ethische dilemma's ook enkel bedacht door mensen die verder niets met de techniek te maken hebben of met autorijden an sich.

Zeg nou zelf wie heeft er hier tijdens zijn autorijlessen en tijdens de examens iets te horen gekregen over dit thema? Of is het dan minder belangrijk, want we hebben toch altijd een bestuurder die we kunnen aanspreken.

Uiteindelijk wordt de aansprakelijkheidskwestie veel interessanter dan een (wellicht puur) hypothetische situatie over een computer die levens weegt. Zo werkt het namelijk niet volgens mij.

  • Jason X
  • Registratie: Juli 2004
  • Laatst online: 19:26
Verwijderd schreef op dinsdag 13 september 2016 @ 21:17:
Doe nu een master journalistiek.

Ik wil in het artikel antwoord geven op de volgende tweeledige vraag:

1) Wie bepaalt welke morele afwegingen zelfrijdende auto's maken en 2) met welke regels is dat op dit moment geprogrammeerd in de auto's die al rondrijden?
Als je een Master Journalistiek doet en zulke vragen stelt, maak ik me ernstig zorgen over het niveau. Je gaat bij je vragen namelijk al ervanuit dat er morele afwegingen bestaan (aannames, strike 1). Je geeft al aan dat je geen idee hebt hoe het helemaal werkt (geen vooronderzoek doen, strike 2); misschien had je die vraag eerst moeten stellen: "Bestaan er morele afwegingen in zelfrijdende auto's? Zo ja..."
Nu hebben de reacties hierboven al gemeld dat ze niet bestaan dus die vragen kan je ook schrappen. Klaar, weg artikel.
Verwijderd schreef op dinsdag 13 september 2016 @ 21:17:

Dit is dus geen morele vraag wat zo'n auto zou moeten doen, maar puur een feitelijke: welke mensen (ik ga ervan uit dat het een team is) zitten hier op dit moment achter. De relevantie is natuurlijk wel ethisch van aard; er wordt door deze mensen tenslotte voor god gespeeld.
Er zitten technici in die teams, geen ethici. En je impliceert ermee dat het type mensen invloed zal hebben op eventuele moraliteit.
Trouwens, voor god spelen is beetje lastig, tenzij je denkbeeldig wil worden.
Verwijderd schreef op dinsdag 13 september 2016 @ 21:17:
Het lijkt me dat ...
Omdat er nu al auto's rondrijden - hoewel nog niet helemaal automatisch- MOETEN hier al keuzes over gemaakt zijn. .
Als 'objectieve' journalist(student) zijn ook hier je aannames (mij lijkt dat...) en overtuiging dat iets zo MOET zijn zorgelijk. Het zet je oogkleppen op. Nogmaals, LOI cursus journalistiek, misschien, maar MASTER?!

My 3 x 2 cents

Verwijderd

Topicstarter
Dank voor de mensen die me hebben geholpen!

En om even op Jason_X antwoord in te gaan; allereerst schrik ik een beetje van je toon. Verder, we hebben de opdracht net gekregen en ik zit nu dus in de onderzoeksfase; we moeten eerst een plan uitstippelen met daarin je vraag en je bronnen. Voor een master journalistiek hoef je overigens geen vooropleiding journalistiek te hebben (ik heb dus zelf een filosofie-achtergrond). Dat een journalist "objectief" moet zijn - wat überhaupt nooit het geval is - heeft hier vrij weinig mee te maken; dat gaat meer over een bepaalde kant kiezen in een conflict. In mijn vraagstelling is alleen sprake van een feitelijke aanname dat iets het geval is. Maar los van die onaardige opmerkingen ben ik het inhoudelijk ook niet eens met wat je zegt.

Je kunt onmogelijk ontkennen dat er morele afwegingen achter de software van zo'n auto zitten. Mijn formulering "welke morele afwegingen zelfrijdende auto's maken" is wellicht wat ongelukkig gekozen omdat de auto zelf natuurlijk geen moreel besef heeft. Maar, er is wel degelijk een morele afweging gemaakt bij het maken van die codetaal. Ik weet bijvoorbeeld dat er een patent van Google is op hun idee over wegpositionering; dat hun zelfrijdende auto bijvoorbeeld altijd dichter bij een kleinere auto dan bij een vrachtwagen gaat rijden. Dit is uit veiligheid, maar hier zit noodzakelijk een morele afweging in (namelijk: we vinden het belangrijker dat de vrachtwagen op veilige afstand blijft van mijn auto dan dat mijn auto afstand van de kleinere auto houdt en die daarmee dus "in gevaar brengt").

PS: "Voor god spelen" is een metafoor waarmee ik bedoel dat door de programmeurs in feite wordt bepaald welke objecten of wezens wel en niet (koste wat het kost) moeten worden ontweken door zo'n autopilot, die moet je dus niet al te letterlijk nemen;)

Verwijderd

Topicstarter
Verwijderd schreef op woensdag 14 september 2016 @ 11:00:

Uiteindelijk wordt de aansprakelijkheidskwestie veel interessanter dan een (wellicht puur) hypothetische situatie over een computer die levens weegt. Zo werkt het namelijk niet volgens mij.
Dat is dus het probleem; hoewel een computer natuurlijk zelf nooit levens weegt (het is een machine), doet de programmeur dat natuurlijk wel op het moment dat je de software van zo'n zelfrijdende auto gaat maken. Als je geen waarde-afwegingen maakt voor een bepaalde regel, kun je er immers nooit voor zorgen dat een auto wel stopt voor het ene object en niet voor het andere.

  • naitsoezn
  • Registratie: December 2002
  • Niet online

naitsoezn

Nait Soez'n!

@Lievelieve Door de term 'morele afweging' te introduceren, heb je expliciet de suggestie gewekt dat programmeurs / onderzoekers die aan dit soort systemen werken zich hiermee bezig houden. Misschien dat het aan je vooropleiding ligt (filosofie), of aan verkeerde terminologie, maar zulk soort systemen worden niet regel-voor-regel uitgeprogrammeerd.

Er is dus geen regel code waarin (simpel gezegd) expliciet staat :
code:
1
2
3
4
5
6
7
8
9
10
11
12
If ( object-ahead = kid ) then
{ 
  break-no-matter-what;
}
elseif ( object-ahead = cat | dog )
{
  break-only-if-situation-allows;
}
else
{
  do-not-break;
}


Het specifieke geval van de zelflerende auto ken ik niet, maar erg simplistisch gezegd zullen zelflerende systemen doorgaans talloze situaties voorgelegd worden met een gewenste uitkomst. Het zelflerende systeem krijgt een hoop wiskunde en andersoortige analyse-tools tot z'n beschikking om kenmerken uit die situaties te extraheren, en zal die kernmerken koppelen aan zo'n gewenste uitkomst. Bij een nieuwe situatie zal hij dus proberen te herinneren wat een gewenste uitkomst was in een eerder geleerde situatie en op die manier proberen te handelen.

Doorgaans is de grote uitdaging in zo'n situatie het verkrijgen van een dataset die groot genoeg is om van alles mee te kunnen leren. Die uitdaging is al groot genoeg en dus zal men doorgaans niet ook nog eens moeilijk doen met het introduceren van morele afwegingen. En als er al impliciet morele afwegingen gemaakt zijn, dan komen die slechts tot uiting doordat (bijvoorbeeld, wederom erg kort door de bocht geredeneerd) in 70% van de gevallen de gewenste uitkomst is om vol in de ankers te gaan voor een kat en in 99% van de gevallen vol in de ankers te gaan voor een kind. Maar dat zijn dan impliciete gevolgtrekkingen, die worden niet expliciet geprogrammeerd.

't Het nog nooit, nog nooit zo donker west, of 't wer altied wel weer licht


  • CMD-Snake
  • Registratie: Oktober 2011
  • Laatst online: 13-11-2022
Verwijderd schreef op dinsdag 13 september 2016 @ 21:17:
1) Wie bepaalt welke morele afwegingen zelfrijdende auto's maken
Niemand.
2) met welke regels is dat op dit moment geprogrammeerd in de auto's die al rondrijden?
Geen.

Zo en nu even die 10 scoren. :P

Autonome auto's zijn geprogrammeerd om de geldende verkeersregels te volgen en om voldoende afstand te houden van objecten en dit alles zo risico vermijdend mogelijk.

Je wil nu een eigenlijk menselijk waarden projecteren op een stuk software. Dat lijkt mij niet passend. Indien een autonome auto iets zou raken is dat meer een situatie van 'overmacht' voor de programmatuur dan een morele keuze. Bijvoorbeeld de remafstand is onvoldoende of de situatie was dusdanig complex dat de software er niet meer uit kwam.
Verwijderd schreef op woensdag 14 september 2016 @ 15:32:
Maar er is wel degelijk een morele afweging gemaakt bij het maken van die codetaal. Ik weet bijvoorbeeld dat er een patent van Google is op hun idee over wegpositionering; dat hun zelfrijdende auto bijvoorbeeld altijd dichter bij een kleinere auto dan bij een vrachtwagen gaat rijden. Dit is uit veiligheid, maar hier zit noodzakelijk een morele afweging in (namelijk: we vinden het belangrijker dat de vrachtwagen op veilige afstand blijft van mijn auto dan dat mijn auto afstand van de kleinere auto houdt en die daarmee dus "in gevaar brengt").
Ik zie werkelijk niet in hoe meer afstand houden ten opzicht van een vrachtwagen een morele keuze kan zijn. Morele keuzes gaan meer of goed of kwaad, of in je eerdere voorbeeld een afweging tussen de waarde van het leven van een kind of een hond.

Dat je meer afstand houdt achter een vrachtwagen is logisch, dan kan je nog langs de vrachtwagen kijken. Bij een kleine auto kan je dichterop deze rijden en toch overzicht houden over de rest van het verkeer. Bovendien als een personenauto achterop een vrachtwagen botst is de afloop vrijwel nooit fraai. Dat is nog een goede reden om extra afstand te houden.

Er zijn hier geen moeilijke filosofische afwegingen. Dit is meer boerenverstand.

Acties:
  • +1 Henk 'm!

  • vwat
  • Registratie: Mei 2011
  • Laatst online: 04-09 11:34
Natuurlijk worden er morele keuzes gemaakt.

Voorbeeld.
Situatie: Een auto rijdt te hard om tot stilstand te komen voor een persoon die plotseling voor de auto verschijnt. Achter je rijdt een grote vrachtwagen.

Een autonoom rijdende auto 'beslist' mogelijk dat het te gevaarlijk is om keihard te remmen, er is immers een grote kans dat je van achteren wordt aangereden door de vrachtwagen waarmee je jezelf en andere inzittenden in gevaar brengt. Dit is een aanname, maar ik kan me niet voorstelen dat dit (in de toekomst) op deze manier geprogrammeerd gaat worden.

Natuurlijk is hier over nagedacht bij het ontwerpen van deze software. Als dit genegeerd wordt en er 'gewoon' verkeersregels worden geprogrammeerd dan is dit ook een morele keuze, maar wie maakt die keuze dan? Ik heb het antwoord niet, maar er is wel degelijk sprake van morele afwegingen bij het ontwerpen van een autopilot systeem.

Acties:
  • +1 Henk 'm!

  • Sleepkever
  • Registratie: Juni 2007
  • Laatst online: 15:06
Ik denk niet dat dat een correct voorbeeld is, je maakt daar een grote aanname, namelijk dat de auto überhaupt mee weegt in zijn beslissing dat er een grote vrachtwagen achter hem rijdt, dat het persoon voor hem van enige waarde is of wat de gevolgen van de verschillende keuzes zouden zijn.

Die auto is gemaakt om verkeersregeltjes en de weg voor hem zo veilig mogelijk te volgen. Dus voor dat persoon zal hij gewoon keihard op de rem gaan om vervolgens geraakt te worden door de chauffeur achter hem, die zich niet aan de regels houdt door te weinig afstand te houden.


Laten we het eens anders stellen:
Situatie: Een auto rijdt te hard om tot stilstand te komen voor een stuk plat karton die plotseling voor de auto verschijnt. Achter je rijdt een grote vrachtwagen.

Afgezien van een eventuele schrik reactie om hard op de rem te trappen, zal elk goedgezind persoon gewoon glashard door rijden. Dat stuk karton rij je wel stuk en hou je afgezien van misschien wat kleine krasjes op je lak verder niets aan over. De vrachtwagen achter je krijgt met een beetje geluk nog wel een stuk karton op z'n voorruit geplakt waardoor hij afremt, eindgoed algoed?

Voor een autonome auto is dit niet anders dan dat er een persoon, geit, auto of schoolbus vol met kinderen stil staat op de weg. Er is een obstakel, je kan niet veilig meer door vooruit, dus vol op de rem!

Je kan dit een morele keuze proberen te noemen van degene die dit geprogrammeerd heeft, maar de waarheid is gewoon dat we gewoon nog niet zo ver zijn. Afwegingen op dat niveau zijn de komende jaren nog niet aan de orde.

  • Dirk33
  • Registratie: Juli 2014
  • Laatst online: 06-06-2024
Een autonome auto heeft een hele pak sensors aan boord, die kan meer verschil maken in objecten dan je denkt. Natuurlijk radar en lidar die gewoon kijken of er voor de auto iets zit, maar ook cameras die al behoorlijk ver zijn in detectie van objecten. En daar komt bij dat er niet simpel weg 1 radar voor zit, nee zelfs gewone volvos hebben al rondom een bak sensoren. Zo'n auto ziet dus iets aan komen fladderen.

En over die morele afweging met een vrachtwagn
Als er achter jouw een moderne grote vrachtwagen rijd kun je gerust hard remmen, als zo'n truck alles op slot gooit dan remt dat verdomd hard. Daar zitten tegenwoordig ook allerlei automatische remsystemen op die een hard remmend voertuig detecteren.
Overigens vindt ik het geen morele afweging dat je met een zelfrijdende auto besluit om dicht achter een andere wagen te zitten. Een computer kan veel sneller reageren dan een mens, en die auto zal dus eerder remmen en gewoon op tijd stil staan.

En die ethische punten worden nu al aangekaart door mensen buiten de automotive wereld, dan denken de automakers er ook over na. Immers, wij denken er over na dan kunnen zij het ook. Daar werken hele slimme jongens bij die bedrijven. Of dat vervolgens zich ook vertaalt naar de software, dat denk ik nog niet. Het is al moeilijk genoeg om die auto's 100% veilig te laten rijden, laat staan dat er in de software ook nog overwegingen tussen een kind en een oma op het zebrapad moeten worden gemaakt.

Acties:
  • +1 Henk 'm!

  • vwat
  • Registratie: Mei 2011
  • Laatst online: 04-09 11:34
Dan is dat de morele keuze de autofabrikant. Autopilot in gebruik nemen terwijl dat soort afwegingen niet gemaakt worden door de software.

Verwijderd

Topicstarter
Sleepkever schreef op woensdag 14 september 2016 @ 21:02:

Je kan dit een morele keuze proberen te noemen van degene die dit geprogrammeerd heeft, maar de waarheid is gewoon dat we gewoon nog niet zo ver zijn. Afwegingen op dat niveau zijn de komende jaren nog niet aan de orde.
Hoe bedoel je "zijn nog niet aan de orde"? Er rijden al auto's rond dus er moeten regels voor zulke situaties bestaan. Hier geldt: ook het niet implementeren van een regel hiervoor is een morele afweging omdat je het aan het toeval overlaat wat er zal gebeuren in een situatie met twee kwaden. Wie heeft in dat geval besloten dat de auto rond zal rijden zonder een ethisch onderbouwde regel voor dergelijke situaties in de software?

[ Voor 3% gewijzigd door Verwijderd op 14-09-2016 21:12 ]


  • Radiant
  • Registratie: Juli 2003
  • Niet online

Radiant

Certified MS Bob Administrator

Waarom stel je deze vragen niet aan de makers van de autonome auto's? Ik denk dat hier weinig mensen rondlopen die bij Google op die specifieke afdeling werken. Dit topic zal dus puur speculatie blijven en dat lijkt me geen goede basis voor een artikel.

Al denken sommige nieuwssites daar anders over 8)7

Verwijderd

Topicstarter
Radiant schreef op woensdag 14 september 2016 @ 21:19:
Waarom stel je deze vragen niet aan de makers van de autonome auto's? Ik denk dat hier weinig mensen rondlopen die bij Google op die specifieke afdeling werken. Dit topic zal dus puur speculatie blijven en dat lijkt me geen goede basis voor een artikel.

Al denken sommige nieuwssites daar anders over 8)7
Daar heb je gelijk in! Ik was ook specifiek op zoek naar mensen die wellicht contacten hebben in die wereld en me kunnen vertellen hoe die regels eruitzien, maar ook echt: wat voor mensen zijn dat. Ik had niet verwacht dat mijn vraag op zich al tot discussie zou leiden. ;)

  • Jazzy
  • Registratie: Juni 2000
  • Laatst online: 22:04

Jazzy

Moderator SSC/PB

Moooooh!

Jason X schreef op woensdag 14 september 2016 @ 12:28:
Trouwens, voor god spelen is beetje lastig, tenzij je denkbeeldig wil worden.
Gniffel. :)

Exchange en Office 365 specialist. Mijn blog.


  • Nivve
  • Registratie: Februari 2016
  • Niet online
Verwijderd schreef op woensdag 14 september 2016 @ 21:21:
[...]


Daar heb je gelijk in! Ik was ook specifiek op zoek naar mensen die wellicht contacten hebben in die wereld en me kunnen vertellen hoe die regels eruitzien, maar ook echt: wat voor mensen zijn dat. Ik had niet verwacht dat mijn vraag op zich al tot discussie zou leiden. ;)
Ha, dat is tweakers. Hier wil iedereen zijn zegje doen. Maar dat maakt het ook zo leuk 8)

  • Jason X
  • Registratie: Juli 2004
  • Laatst online: 19:26
Verwijderd schreef op woensdag 14 september 2016 @ 15:32:
Dank voor de mensen die me hebben geholpen!

En om even op Jason_X antwoord in te gaan; allereerst schrik ik een beetje van je toon.
Sorry, zal vast in een zeikmodus hebben gezeten :)

Overigens, de keuze die je aanstipt, om een autonome auto dichter bij een kleine auto te laten rijden dan bij een vrachtwagen, doet me een beetje denken aan het beroemde Trolley problem. Hier (NL) en hier (ENG)/

Ennieweej, succes met de opdracht verder. Hopelijk heeft deze discussie toch wat kunnen helpen.

  • Sleepkever
  • Registratie: Juni 2007
  • Laatst online: 15:06
Verwijderd schreef op woensdag 14 september 2016 @ 21:10:
[...]


Hoe bedoel je "zijn nog niet aan de orde"? Er rijden al auto's rond dus er moeten regels voor zulke situaties bestaan. Hier geldt: ook het niet implementeren van een regel hiervoor is een morele afweging omdat je het aan het toeval overlaat wat er zal gebeuren in een situatie met twee kwaden. Wie heeft in dat geval besloten dat de auto rond zal rijden zonder een ethisch onderbouwde regel voor dergelijke situaties in de software?
Is dan het technisch niet mogelijk zijn van iets implementeren ook een morele keuze?

Verwijderd

Topicstarter
Sleepkever schreef op woensdag 14 september 2016 @ 22:03:
[...]

Is dan het technisch niet mogelijk zijn van iets implementeren ook een morele keuze?
Wel als je er daarna dus bewust voor kiest om hem wel te laten rijden.

Acties:
  • +1 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 14 september 2016 @ 15:41:
[...]


Dat is dus het probleem; hoewel een computer natuurlijk zelf nooit levens weegt (het is een machine), doet de programmeur dat natuurlijk wel op het moment dat je de software van zo'n zelfrijdende auto gaat maken. Als je geen waarde-afwegingen maakt voor een bepaalde regel, kun je er immers nooit voor zorgen dat een auto wel stopt voor het ene object en niet voor het andere.
Fijn dat je de rest negeert. Ook de programmeur weegt niks, die zal ervoor zorgen dat de verkeersregels opgevolgd worden, de autonome auto zal straks veel beter en veiliger kunnen rijden dan een mens. Dus wat moraliteit daar nu precies mee te maken heeft heb je nog steeds niet duidelijk gemaakt.

Acties:
  • +1 Henk 'm!

  • sypie
  • Registratie: Oktober 2000
  • Niet online
naitsoezn schreef op woensdag 14 september 2016 @ 17:15:

Er is dus geen regel code waarin (simpel gezegd) expliciet staat :
code:
1
2
3
4
5
6
7
8
9
10
11
12
If ( object-ahead = kid ) then
{ 
  break-no-matter-what;
}
elseif ( object-ahead = cat | dog )
{
  break-only-if-situation-allows;
}
else
{
  do-not-break;
}
In dit expliciete voorbeeld staat wel beschreven dat de programmeur van dit stukje code juist helemaal geen moreel besef heeft. Kinderen worden gesloopt, katten of honden worden gesloopt indien de situatie dat toelaat en in alle andere gevallen wordt er niets gesloopt.

Break en brake zijn niet dezelfde dingen.

Acties:
  • +1 Henk 'm!

  • Sjoerdfoto
  • Registratie: Januari 2013
  • Laatst online: 22-09 13:39

Sjoerdfoto

Fotografeert en klust.

programmeurs van de autonome software zijn geen mensen die lappen tekst schrijven puur met what if functies, of morele afwegingen.
Zij schrijven algorithmes, codes waarmee het voertuig zelf leert een situatie te herkennen en erop te anticiperen.
Zo heb ik met een tesla hier in de straat vrij ferm over een hobbel gereden. De volgende keer dat ik dat probeerde, remde de auto zelf bij.

Nu zegt dat niets over morele kwesties, maar wel over hoe een auto zelf leert, en dit niet standaard ingeprogrammeerd zit.

De auto herkent verkeersborden, weet de toegestane max snelheid etc etc, en gaat zich daaraan houden. Obstakels ontwijken, maar ook het rijden in colonne op zeer korte afstand (platooning test EU), is iets wat het voertuig (de voertuigen) zelf moet leren en hierin verbeteren.

Daarom ben ik het eens met EeePC, benader de professionals gebruik dit voor je onderzoek. Overigens ook in mijn studie, HTS Autotechniek aan de HAN in Arnhem lopen diverse onderzoeken hiernaar.

Verder interessant artikel:
http://www.deltalloyd.nl/...tie-zelfrijdende-auto.jsp

Nikon Z6II + glas, licht en pootjes | MacBook Pro 14" | www.foto-sjoerd.nl


  • EeePC
  • Registratie: April 2008
  • Laatst online: 22-08 13:46
Ik lees toch nog wel een hoop verkeerde aannames en onwaarheden hier. "We" zijn gewoon op dit moment nog niet zo ver dat een voertuig daadwerkelijk nadenkt en een afweging maakt in een bedreigende situatie. Op dit moment is bijvoorbeeld de automatische remfunctie nog zo simpel dat een obstakel op de weg = remmen. Of het nou een moeder met een bakfiets is, of een omgevallen afvalcontainer. En ook ongeacht of er niemand achter je zit, of een 30tonner op je bumper.
Uiteraard moet er in de toekomst nog ongelofelijk veel toegevoegd worden, maar dan nog gaat het eerder de zelflerende kant op, (dus AI), dan dat een programmeur ergens in de code schrijft dat je bij een keuze tussen een aanrijding met een kind of een hond, voor de hond moet kiezen.

Neem bijvoorbeeld de zelfrijdende auto's van Google. In de media doen ze het voorkomen alsof er een zeer geavanceerde intelligentie in zit, maar in feite hebben ze gewoon alleen een enorme database met voorkomende verkeerssituaties, waar de auto de best passende oplossing in uitzoekt voor zijn situatie op dat moment. Bovendien rijden ze zeer langzaam en defensief , en zodra er enige twijfel ontstaat stoppen ze gewoon en houdt het op.
Zaken als uitwijken, kiezen tussen verschillende aanrijdingen en dergelijke, komen gewoonweg nog niet voor.

Maargoed, ik ben een ingenieur dus ik bekijk de zaak vanuit een praktisch en technisch oogpunt. Ik denk dus ook dat er wel degelijk filosofen en ethici zich bezig houden met dit onderwerp, of gaan bezig houden. En daarnaast is er natuurlijk nog de hele juridische kwestie qua aansprakelijkheid.

Het lijkt me daarom interessant om wellicht zowel een filosoof/ethicus als een techneut zoals een van de profs. van de TU/e te bevragen over dit onderwerp.

[ Voor 18% gewijzigd door EeePC op 15-09-2016 09:42 . Reden: aanvulling over Google auto ]


  • Nivve
  • Registratie: Februari 2016
  • Niet online
EeePC schreef op donderdag 15 september 2016 @ 09:25:
Uiteraard moet er in de toekomst nog ongelofelijk veel toegevoegd worden, maar dan nog gaat het eerder de zelflerende kant op, (dus AI), dan dat een programmeur ergens in de code schrijft dat je bij een keuze tussen een aanrijding met een kind of een hond, voor de hond moet kiezen.
Op dit punt heb je dan juist de morele afweging; Is het moreel aanvaardbaar dat we die verantwoordelijkheid in een AI leggen en niet actief door mensen ontworpen?
Lijkt mij iig wel een interessant onderwerp :)

Ben het eens met de rest van je post overigens

  • EeePC
  • Registratie: April 2008
  • Laatst online: 22-08 13:46
Nivve schreef op donderdag 15 september 2016 @ 09:41:
[...]

Op dit punt heb je dan juist de morele afweging; Is het moreel aanvaardbaar dat we die verantwoordelijkheid in een AI leggen en niet actief door mensen ontworpen?
Lijkt mij iig wel een interessant onderwerp :)
Dat is inderdaad zeker waar. Zo'n vorm van AI zal zeer uitgebreid getest moeten worden om er zeker van te zijn dat hij beter presteert dan de mens, maar echt zeker ben je natuurlijk nooit, zeker niet bij echte intelligentie. Er zijn natuurlijk situaties denkbaar waarbij de auto zijn inzittende redt, maar daarbij een aantal onschuldige omstanders slachtoffer maakt, terwijl een gemiddeld mens daarbij een andere keuze had gemaakt die nadelig voor hemzelf had uitgepakt.

Maarja, de mens presteert ook zeer wisselend. Ik weet zeker dat ik veel actiever en veiliger rijdt dan mijn opa van 89, maar toch mag hij ook gewoon nog steeds de weg op. Over deze morele afweging hoor je echter bijna nooit wat, of is het in ieder geval "not done" om het aan te kaarten.

Maar inderdaad een zeer interessant en ook lastig onderwerp ;)

  • lordgandalf
  • Registratie: Februari 2002
  • Laatst online: 13:59
Een zelf-rijden auto kijkt niet naar wat voor iets er voor / achter een auto staat. Hij ziet alleen dat er "iets" staat voor een van zijn sensors dan betekend dat remmen.
Staat er niks voor / achter dan word alles vrij gegeven om weer op pad te gaan thats it !

Steam: Profile / Socialclub: Profile / Uplay: minedwarf / Origin: lordgandalf3


  • RocketKoen
  • Registratie: December 2001
  • Laatst online: 17:02
Je zou kunnen kijken naar Tesla.
Dat is dan wel niet autonoom, maar er zit wel een morele discussie achter.

Op het moment is het systeem namelijk nog niet 100% veilig. En er zijn al ongelukken gebeurd die voorkomen hadden kunnen worden als de sensoren of de software beter was geweest.
Bijvoorbeeld een witte vrachtwagen die over het hoofd wordt gezien door de camera.

Maar de morele beslissing wordt niet gemaakt door de computer. Die is op het moment nog veel te dom en blind om uberhaubt onderscheid te maken tussen een spelend kind en een kartonnen doos.

De morele beslissing is wanneer is zo'n systeem goed genoeg om het te gaan gebruiken.
Tesla gebruikt het systeem bijvoorbeeld al wel op snelwegen. Hun argument is dat hun autopilot nog steeds veiliger is als de gemiddelde bestuurder. En dat kunnen ze ook bewijzen.
Daarnaast levert het een schat aan data op die ze gebruiken om het systeem te verbeteren.
Het tegenargument is dat Tesla hun klanten gebruikt als proefkonijn.

Google heeft een systeem dat al veel verder ontwikkeld is. Maar die gebruiken het op het moment alleen in auto's met getrainde testers.
Google wil namelijk in 1x een compleet zelfrijdende auto hebben. Op het niveau dat de fabrikant aansprakelijk is als de auto een ongeluk veroorzaakt.

TheS4ndm4n#1919


  • Chevy454
  • Registratie: Augustus 2001
  • Niet online
Degene die dit allemaal bepaald zit op de juridische afdeling. De advokaten beslissen wat mogelijk is en wat niet. Allemaal leuk en wel dat zelfrijdend maar wie is er verantwoordelijk als er schuld moet worden aangewezen? Ontwikkeling gaat gewoon door maar wordt vaak uiteindelijk gestopt door juridische aspecten.

De mensen met wie je wilt spreken zijn niet de programmeurs die algoritmes beschrijven, het zijn de juristen die bepalen welke mogelijk zijn en welke niet.
lordgandalf schreef op donderdag 15 september 2016 @ 10:44:
Een zelf-rijden auto kijkt niet naar wat voor iets er voor / achter een auto staat. Hij ziet alleen dat er "iets" staat voor een van zijn sensors dan betekend dat remmen.
Staat er niks voor / achter dan word alles vrij gegeven om weer op pad te gaan thats it !
Follow to stop ACC systemen zijn er al een tijdje (maar nog steeds optioneel met heel veel beperkingen, niet in de regen bvb, de radar schakelt de ACC steeds uit :( ) maar weet je wat voor een hoop juridisch gezeik er te pas is gekomen? 15 jaar geleden (shit, ik word oud) had men al enkele prototypes daarvan waarbij het grooste probleem niet zozeer de hardware was maar ook in welk legaal kader men mag werken. Het systeem hoeft maar 1 keer te falen en je hangt.

Bij de ACC systemen van nu moet de bestuurder nog steeds remmen tot volledige stilstand

[ Voor 57% gewijzigd door Chevy454 op 15-09-2016 15:53 ]

Wanneer iedereen zijn hoofd verliest en jij houdt het hoofd koel dan heb jij het probleem niet begrepen. You think I'm expensive, try hiring an amateur.


Verwijderd

Chevy454 schreef op donderdag 15 september 2016 @ 15:37:
Degene die dit allemaal bepaald zit op de juridische afdeling. De advokaten beslissen wat mogelijk is en wat niet. Allemaal leuk en wel dat zelfrijdend maar wie is er verantwoordelijk als er schuld moet worden aangewezen? Ontwikkeling gaat gewoon door maar wordt vaak uiteindelijk gestopt door juridische aspecten.

De mensen met wie je wilt spreken zijn niet de programmeurs die algoritmes beschrijven, het zijn de juristen die bepalen welke mogelijk zijn en welke niet.
Euhm nee niet echt. De juridische afdelingen bij grote concerns werken wel nauw samen met overheden en de EU om te zorgen dat het raamwerk voor autonome auto's straks helder is en sluitend waar mogelijk. Ook zullen ze in projecten betrokken zijn, maar die gaan dus echt niet bepalen welk algoritme wel en welke niet mogelijk is.

Dat ze vooraf al betrokken zijn is positief, scheelt een hoop ellende met claims achteraf. Uiteindelijk loop je altijd achter de feiten aan bij innovatieve ontwikkelingen (zie Uber en haar rechtszaken).

  • Chevy454
  • Registratie: Augustus 2001
  • Niet online
Verwijderd schreef op donderdag 15 september 2016 @ 15:45:
Euhm nee niet echt. De juridische afdelingen bij grote concerns werken wel nauw samen met overheden en de EU om te zorgen dat het raamwerk voor autonome auto's straks helder is en sluitend waar mogelijk. Ook zullen ze in projecten betrokken zijn, maar die gaan dus echt niet bepalen welk algoritme wel en welke niet mogelijk is.
Natuurlijk werken die samen, ze willen het als eerste introduceren. Maar in datzelfde raamwerk gaan ze ook zeggen wat wel en niet kan in een algoritme. (natuurlijk niet op code niveau dat het generisch wordt).

Met dieselgate bijvoorbeeld moeten de juristen zich buigen over mogelijke aanpassingen, wat kan en niet kan in de wetgeving.

Wanneer iedereen zijn hoofd verliest en jij houdt het hoofd koel dan heb jij het probleem niet begrepen. You think I'm expensive, try hiring an amateur.


Verwijderd

Topicstarter
Verwijderd schreef op woensdag 14 september 2016 @ 22:44:
[...]

Fijn dat je de rest negeert. Ook de programmeur weegt niks, die zal ervoor zorgen dat de verkeersregels opgevolgd worden, de autonome auto zal straks veel beter en veiliger kunnen rijden dan een mens. Dus wat moraliteit daar nu precies mee te maken heeft heb je nog steeds niet duidelijk gemaakt.
Als je in mijn reactie dan het woord "programmeur" vervangt door: "bedenker van de regels die geprogrammeerd moeten worden". Want dat bedoelde ik, ik ging er inderdaad even aan voorbij dat programmeurs vaak gewoon taken uitvoeren die iemand anders bedacht heeft.

Ik mag verder toch hopen dat niet alleen verkeersregels geïmplementeerd worden, dat zou betekenen dat door rood rijden als fietser ervoor zorgt dat je doodgereden mag worden door een zelfrijdende auto ;) Als dit niet zo is, moet er dus een regel bestaan die ervoor zorgt dat zo'n zelfrijdende auto wel afremt voor een ongehoorzame fietser en misschien daardoor zijn achterligger laat schrikken. Situaties waarin verkeersregels niet meer voldoende zijn (ik maak ze elke dag mee) vragen om morele afwegingen. Die afwegingen moet de maker van de zelfrijdende auto dus maken voor hij hem op de openbare weg laat rijden.

  • EeePC
  • Registratie: April 2008
  • Laatst online: 22-08 13:46
Verwijderd schreef op donderdag 15 september 2016 @ 16:04:
[...]
Ik mag verder toch hopen dat niet alleen verkeersregels geïmplementeerd worden, dat zou betekenen dat door rood rijden als fietser ervoor zorgt dat je doodgereden mag worden door een zelfrijdende auto ;) Als dit niet zo is, moet er dus een regel bestaan die ervoor zorgt dat zo'n zelfrijdende auto wel afremt voor een ongehoorzame fietser en misschien daardoor zijn achterligger laat schrikken.

Situaties waarin verkeersregels niet meer voldoende zijn (ik maak ze elke dag mee) vragen om morele afwegingen. Die afwegingen moet de maker van de zelfrijdende auto dus maken voor hij hem op de openbare weg laat rijden.
Je blijft wel een beetje halsstarrig terugkomen op je eigen initiële gedachten en aannames, ondanks al onze eerdere reacties. Om jouw voorbeeld aan te halen: Een autonome auto/automatische remingreep zal nu alleen maar zorgen dat de fietser zo zacht mogelijk wordt aangereden (of helemaal niet, mits er genoeg remtijd is), verder niks. Komt dus geen enkele morele afweging aan de pas.

  • EeePC
  • Registratie: April 2008
  • Laatst online: 22-08 13:46
Vers nieuwsbericht over Tesla Autopilot, mét reactie van prof. Maarten Steinbuch: http://nos.nl/artikel/213...emiddelde-bestuurder.html

Verwijderd

Topicstarter
EeePC schreef op donderdag 15 september 2016 @ 16:10:
[...]


Je blijft wel een beetje halsstarrig terugkomen op je eigen initiële gedachten en aannames, ondanks al onze eerdere reacties. Om jouw voorbeeld aan te halen: Een autonome auto/automatische remingreep zal nu alleen maar zorgen dat de fietser zo zacht mogelijk wordt aangereden (of helemaal niet, mits er genoeg remtijd is), verder niks. Komt dus geen enkele morele afweging aan de pas.
Je vergeet volgens mij dat het juist erg wenselijk is dat die morele afweging wel wordt gemaakt door de bedenker van de software.

Wat als er in een bepaalde verkeerssituatie noodzakelijk een slachtoffer of schade zal ontstaan; op basis waarvan beslist zo'n zelfrijdende auto welke schade het minst erg is? Als dit niet op basis is van de morele afwegingen van de bedenker, dan is het dus op basis van toeval (hij kiest random een gebouw of persoon waar hij voor uitwijkt). Dat kan nooit de bedoeling zijn van een (dodelijke) machine die op de openbare weg rijdt.

  • Radiant
  • Registratie: Juli 2003
  • Niet online

Radiant

Certified MS Bob Administrator

Maar wat als de auto helemaal geen onderscheid kan maken tussen een mens en een gebouw, maar alleen ziet 'object vlak voor mij' en daarbij de keus heeft 'ontwijk' (als het kan) of 'rem'?

Verwijderd

Topicstarter
Radiant schreef op donderdag 15 september 2016 @ 17:49:
Maar wat als de auto helemaal geen onderscheid kan maken tussen een mens en een gebouw, maar alleen ziet 'object vlak voor mij' en daarbij de keus heeft 'ontwijk' (als het kan) of 'rem'?
Dat betekent dat hij het object dat het meest dichtbij is altijd zal ontwijken. Ook geen fijne conclusie, want dat is lang niet altijd het beste om te doen, dus geen goede regel. En wat betekent "als het kan"; wanneer "kan" je uitwijken? Als je iets anders raakt niet, maar wat als je bijna een persoon raakt en bij het uitwijken een gebouw. Kan het dan? Elke regel die geen verkeersregel is, is in principe het resultaat van een morele afweging.

  • Radiant
  • Registratie: Juli 2003
  • Niet online

Radiant

Certified MS Bob Administrator

Mijn vraag is nou juist: wat als een technische beperking (het niet kunnen herkennen van wat voor object het is) het onmogelijk maakt die beslissing te nemen?

Wat ik bedoel met 'kan' uitwijken is dat je dan niets anders raakt (dan kan je beter remmen).

Acties:
  • +1 Henk 'm!

Verwijderd

Verwijderd schreef op donderdag 15 september 2016 @ 16:04:
[...]


Als je in mijn reactie dan het woord "programmeur" vervangt door: "bedenker van de regels die geprogrammeerd moeten worden". Want dat bedoelde ik, ik ging er inderdaad even aan voorbij dat programmeurs vaak gewoon taken uitvoeren die iemand anders bedacht heeft.

Ik mag verder toch hopen dat niet alleen verkeersregels geïmplementeerd worden, dat zou betekenen dat door rood rijden als fietser ervoor zorgt dat je doodgereden mag worden door een zelfrijdende auto ;) Als dit niet zo is, moet er dus een regel bestaan die ervoor zorgt dat zo'n zelfrijdende auto wel afremt voor een ongehoorzame fietser en misschien daardoor zijn achterligger laat schrikken. Situaties waarin verkeersregels niet meer voldoende zijn (ik maak ze elke dag mee) vragen om morele afwegingen. Die afwegingen moet de maker van de zelfrijdende auto dus maken voor hij hem op de openbare weg laat rijden.
Leren lezen lijkt me ook een goede les voor een journalist. Doe dat eens.
Je redeneert dus weer enkel in je eigen cirkeltje. Nogmaals hoe vaak denk je dat mensen zelf achter het stuur moeten kiezen om een kind of een hond aan te rijden? Leer je dat bij de rijlessen? Hoe kijk je daar dan tegenaan?
En dan je voorbeeld, slaat ook nergens op. Je schrijft dus dat volgens de verkeersregels ik nu een fietser mag aanrijden die door rood rijdt? Waarom? Wat is dat voor een kromme redenering? Een autonome auto zal dat veel beter oppikken dan een mens en dan de fietser niet aanrijden, iets wat een menselijke bestuurder hopelijk ook doet. Wat is dan het verschil? Bij beide ontstaat er gevaar door de fietser en kan er iemand achterop klappen.

Als je dagelijks zaken meemaakt waar de verkeersregels ontoereikend zijn kun je er vast 5 zo opnoemen. Doe eens?

Acties:
  • 0 Henk 'm!

  • EeePC
  • Registratie: April 2008
  • Laatst online: 22-08 13:46
Verwijderd schreef op donderdag 15 september 2016 @ 17:00:

[...]
Je vergeet volgens mij dat het juist erg wenselijk is dat die morele afweging wel wordt gemaakt door de bedenker van de software.
Dat vind jij. Je vraagt hier aan mensen die er verstand van hebben hoe het momenteel zit, je krijgt uitleg, en die weerleg je met redenaties gebaseerd op je eigen aannames...
Wat als er in een bepaalde verkeerssituatie noodzakelijk een slachtoffer of schade zal ontstaan; op basis waarvan beslist zo'n zelfrijdende auto welke schade het minst erg is? Als dit niet op basis is van de morele afwegingen van de bedenker, dan is het dus op basis van toeval (hij kiest random een gebouw of persoon waar hij voor uitwijkt). Dat kan nooit de bedoeling zijn van een (dodelijke) machine die op de openbare weg rijdt.
Heel simpel, zo'n auto beslist niet. Tot op vandaag kunnen dergelijke auto's niet kiezen tussen twee kwade. Bij een dreigend ongeval wordt een remactie ingezet, en afhankelijk van de omstandigheden volgt er dan wel een klap (meestal met aanzienlijk lagere snelheid dan als een dergelijk systeem niet aanwezig was geweest) of helemaal geen aanrijding.
Ik denk dat er in het dagelijks verkeer zat voorbeelden te vinden zijn waarbij mensen uitwijken voor een dreigend ongeval/een beest etc. en vervolgens op de andere rijbaan frontaal op een ander voertuig klappen, met alle gevolgen van dien.
Ik denk dat we zulk soort situaties met autonome voertuigen gewoonweg nooit zullen zien. Afgezien van het feit dat het nu technisch nog erg lastig is om zover vooruit te kijken of een eventuele uitwijkmanoeuvre mogelijk is, laat staan de gevolgen daarvan te (kunnen) analyseren. Zit het voordeel van een autonoom voertuig er juist in dat zulk soort situaties überhaupt niet meer voorkomen.
Pagina: 1