Nieuws

11 oktober 2017

Wie zit er straks aan het stuur?

Zelfrijdende auto's komen eraan, of het nu binnen 2 of 10 jaar is. En die auto's maken zelf beslissingen, mogelijk over leven en dood. Hoe zorgen we dat deze keuzes moreel verantwoord zullen zijn?

Het eerste dodelijke verkeersslachtoffer in een zelfsturende auto is vorig jaar gevallen. Tesla-enthousiasteling Joshua Brown vertrouwde te veel op de auto-pilotfunctie van zijn Model S. In dit Guardian-artikel over het incident valt te lezen dat de auto de witte achterkant van een vrachtwagen niet kon onderscheiden van de felle lentelucht en daarom vol op de vrachtwagen knalde. Als reactie op het ongeval wijst Tesla zelf op de statistieken: het is de eerste dode in 130 miljoen gereden mijl door zelfrijdende auto's. Dat maakt het een stuk minder risicovol als je het vergelijkt met 1 fataal ongeval per 94 miljoen gereden mijl met menselijke bestuurders in de VS. Zelfrijdende auto's zijn statistisch gezien dus veiliger en zullen in de toekomst alleen maar beter worden. Tegelijkertijd zien we dat wij kritischer zijn in onze verwachtingen van dit soort machines. In het Filosofisch Café van 10 oktober deelde logicus dr. ir. Jan Broersen zijn visie op auto's die zelf keuzes maken. Keuzes waar wij mee moeten kunnen leven.

Het klassieke gedachtenexperiment

Om het probleem te illustreren grijpt Broersen naar een variant van een klassiek gedachtenexperiment. Een zelfrijdende auto met twee inzittenden rijdt richting een kruispunt waar net een aantal mensen oversteken. Plots begeven de remmen van de auto het en uitwijken kan alleen door tegen een muur te botsen. Hoe moet de auto nu handelen? Het belang van de bestuurder en inzittenden vooropstellen en dus doorrijden? Verandert de situatie als de voetgangers een schoolklas vormen met jonge kinderen? Binnen de ethiek zijn er verschillende theorieën om dit probleem te analyseren en een morele keuze te maken. Als voorbeeld geeft Broersen de Aristoteliaanse deugdethiek. Die gaat uit van deugden als rechtvaardigheid en voorzichtigheid. Volgens dit systeem is de juiste keuze om de handeling uit te voeren die het meest rechtvaardig is. Dat is echter niet realiseerbaar voor zelfsturende auto's omdat het veronderstelt dat onze machines zo intelligent zijn dat ze een begrip hebben van het concept rechtvaardigheid. Voor mensen is dit al vrij problematisch, laat staan voor computers.

Broersen ziet meer toekomst in de ethiek van regel-consequentialisme. Daarbij bepalen een set regels wat moreel juist en onjuist is. We kunnen dan regels formuleren als: geef voorrang aan kinderen of spaar levens. Die regels kan je gewicht geven. Levens sparen krijgt bijvoorbeeld een gewicht van 4, levens sparen van kinderen een gewicht van 5 omdat dat nóg belangrijker is. Die manier van redeneren past bij de manier waarop machines geprogrammeerd worden. In tegenstelling tot deugdethiek, is regel-consequentialisme een morele theorie die toepasbaar is voor programmeurs.

Beeldscherm met programmeercodes

Geen excuus

Naast de praktische toepasbaarheid van verschillende ethische systemen wijst Broersen op een ander belangrijk punt. Als je als mens een fout maakt, kun je je excuses aanbieden. Zo verexcuseren we gedrag dat niet goed uitpakt en kunnen we vergeven worden voor onze daden. Maar hoe werkt dat bij machines? In een deugdethisch systeem accepteren we van mensen misschien wel het excuus dat ze 'hebben geprobeerd zo rechtvaardig en voorzicht mogelijk te zijn', maar accepteren we dat ook van machines? Dat is moeilijk voor te stellen. Terwijl de logische structuur van regel-consequentialisme direct een weg biedt om te communiceren over keuzes die te rechtvaardigen zijn. 'We moeten zoveel mogelijk levens sparen, en de levens van kinderen gaan boven de levens van volwassenen, dus de juiste keuze was om de auto tegen de muur te zetten,' is een antwoord dat we sneller zullen aanvaarden.

Iedereen een Model M(oral)

Het is onduidelijk hoe autofabrikanten hun zelfsturende auto's precies programmeren en wat voor beslissingssystemen ze de auto meegeven. Autoproducenten hebben op dit moment geen enkel belang om deze bedrijfsgevoelige informatie met elkaar te delen. Het is te verwachten dat verschillende fabrikanten daarbij verschillende keuzes maken, zoals merken ook nu al hun auto's eigen eigenschappen meegeven. Broersen geeft het voorbeeld van Mercedes, die heeft verklaard de bescherming van de bestuurder meer prioriteit te geven.

Betekent dit straks ook dat de verantwoordelijkheid van de keuzes van zelfsturende auto's bij de fabrikanten komen te liggen? Dat hangt er vanaf of wij als samenleving dit soort verschillen tussen auto's accepteren. Politiek en regelgeving lopen zoals altijd achter bij de technologische ontwikkelingen. Maar zodra de techniek zich meer en meer toont zal er ook breder over gediscussieerd worden. Dat leidt er toe dat de systemen meer in overeenstemming moeten worden gebracht met een moreel systeem waar de samenleving als geheel achter staat. Dan zit je niet alleen zelf achter het stuur met je auto-pilot. Dan zitten we uiteindelijk met zijn allen achter het stuur.

Gary Sheikkariem (programmamaker)
Copyright Studium Generale
Doorplaatsen uitsluitend met toestemming en onder vermelding van link en auteur.

Delen