Filosofische problemen van de zelfbesturende auto

Misschien ziet roadtrippen er in 2035 heel anders uit dan nu. Je kunt dan de hele weg tv-kijken of kaarten want de auto rijdt zelf, maar wat doet die als er een voetganger plots oversteekt?
Leestijd 1 minuut — Ma 27 juni 2016

Wetenschappers die aan autonome voertuigen werken moeten morele beslissingen in een machine programmeren, bijvoorbeeld hoe uit te wijken in het geval van mogelijke ongelukken. Moet jouw zelfbesturende auto een voetganger omverrijden om jou te redden? Science publiceerde een onderzoek van computerwetenschappers en psychologen die uitzochten hoe Amerikaanse burgers vinden dat een zelfbesturende auto zich moet gedragen. Uiteindelijk stond volgens respondenten het 'grootste goed' voorop, maar wat dat is blijft de vraag. Het minste aantal slachtoffers? Het minste letsel? De meeste respondenten vonden dat ze zelf gered moeten worden, ook als dat ten koste van een voetganger gaat. Wetenschappers zijn er nog niet uit óf je dit moet vertalen naar algoritmen en hoe dan.

Pof. dr. John-Jules Meyer (Informatica, UU) en dr. Merel Noorman (techniekfilosofe, UM) spraken bij ons op het podium over de technische en ethische dilemma's rondom 'slimme systemen', waaronder zelfbesturende auto's en drones. Volgens hun is ons klassieke idee van verantwoordelijkheid te beperkt als het aankomt op technologie. Het is dus goed, maar vooral heel noodzakelijk, dat filosofen, computerprogrammeurs, maar ook sociologen en psychologen onderzoek doen naar machine decision-making. Kijk Slimme bommen terug.