Inleiding
Wat is Artificiële intelligentie?
Artificiële intelligentie is het mogelijk maken van algoritmen om gedrag te vertonen dat kan aanzien worden als menselijk gedrag, zoals redeneren, leren, plannen en creativiteit. Dit is vaak nodig om complexe problemen op te lossen waarbij de computer data in neemt en ‘zelf’ beslists wat de oplossing is. AI-systemen zijn in staat om hun gedrag in zekere mate aan te passen, door het effect van vorige acties te analyseren en autonoom te werken.
Toepassingen worden gebruikt in verschillende sectoren en voor verschillende doeleinden: Slimme IOT-devices, digitale persoonlijke assistentie, cyberveiligheid, zelfrijdende auto’s… [4]
De Artificiële Intelligentie van autonome voertuigen krijgen steeds meer mogelijkheden. Bedrijven zoals Tesla hebben inmiddels level 4-autonome voertuigen bereikt [5]. Level 4- autonome voertuigen zijn bijna volledig autonome voertuigen waarbij nog wel een mogelijkheid is tot menselijk ingrijpen. Level 5-autonome voertuigen zijn volledig autonoom. Bij deze voertuigen is er geen mogelijkheid meer voor menselijk ingrijpen.
Wat heeft dit met ethiek te maken?
Volledig autonome voertuigen zoals level 5-voertuigen brengen veel nieuwe vraagstukken met zich mee, zowel binnen de kunstmatige intelligentie als de ethiek.
“Er komt een trein op volle snelheid aangestormd. Als de trein doorrijdt, komen vijf spoorwegwerkers om. Maar jij kan ze redden door de wissel om te zetten. Er is alleen één probleem. Daarmee dood je een man, die als je niets doet, blijft leven.” Dit probleem heet in de ethiek het Trolleyprobleem [10]. Op dit soort problemen zou de A.I. moeten ‘kiezen’ wat het doet.
Autonome voertuigen brengen veel nieuwe vragen met zich mee. Terwijl deze voertuigen theoretisch veiliger zouden zijn, is het niet mogelijk om onvermijdelijke accidenten volledig te vermijden. Hoe zou een auto moeten geprogrammeerd zijn wanneer het zich in een onvermijdelijk ongeval bevindt?
Voor mensen gebeurt dit zodanig snel, zij hebben enkel een reactie hierop. Voor de A.I. is dit anders: deze heeft echter een beslissing die het moet nemen. Beslist het in het belang van de passagiers en reageert het om deze al doende wat het kost in leven te houden. Of reageert het algoritme om het ongeluk zo klein mogelijk te houden [6]?
Wie is verantwoordelijk, wat is rechtvaardig?
Aandachtspunten voor Artificiële intelligentie
Een punt van aandacht voor kunstmatige intelligentie is eerlijkheid, rechtvaardigheid en gelijke behandeling. Deze aandachtspunten zijn echter niet nieuw en komen voort uit maatschappelijke en politieke discussies sinds de opkomst van technologie. Als het gaat om de vraag waarom rechtvaardige AI een probleem is, zullen we moeten kijken naar wie er op dit moment de touwtjes in handen heeft als het gaat om het bepalen van de toekomst van AI. Dit zijn op dit moment de grote technologiebedrijven die ons expliciete uitspraken hebben beloofd zoals ‘we willen geen kwaad doen’ [7].
Toch zien we dat wanneer deze internationaal opereren hun initiele ideeën en kaders van wat rechtvaardigheid is, of wat gelijkheidsprincipes zijn, steeds moeilijker te handhaven zijn.
Tot heden is er nog weinig actie ondernomen om verantwoordelijkheid te aanvaarden voor door algoritmes aangerichte schade. De impact en gevolgen van deze algoritmen krijgen we stillaan te zien in de maatschappij, zoals onder andere het opstellen van ethische commissies.
Morele verantwoordelijkheid en aansprakelijkheid
Wanneer we even het Trolleyprobleem er terug bijnemen kunnen we meerdere ‘oplossingen’ hanteren. Vanuit een traditionele stroming, wat voor veel mensen als ‘juist’ wordt beschouwd, namelijk het utilitarisme, streven we naar een zo groot mogelijk behalen van het hoogst mogelijke geluk waarbij de meeste mensen gered kunnen worden [8]. Toch heeft deze oplossing een keerzijde en kan dit niet in alle situaties even goed te rechtvaardigen zijn voor alle betrokken partijen.
Er kunnen talloze deelnemers zich bevinden in een verkeersituatie. Een eerste verantwoordelijkheidsgroep zijn de gebruikers van het verkeer, namelijk de bezitters van de zelfrijdende autos. Een tweede groep hierin is namelijk de fabrikant van de auto. De fabrikant en overheid worden vaak beschouwd als eindverantwoordelijke [8].
Momenteel zijn er geen concrete wetten die autonome auto’s betrekken in aansprakelijkheidsrisico’s. Het is namelijk vaak onduidelijk of een ongeval binnen de macht ligt van de bestuurder in combinatie met de functionaliteiten van een deels zelfrijdende auto.
Stel: een auto rijdt door een wijk heen en er steekt een vrouw over. De vrouw heeft geen voorrang en wordt hierdoor aangereden. We weten dat de vrouw oorzakelijk gezien haar eigen aanrijding veroorzaakt heeft, omdat ze zich als het ware als object voor causale impact door de auto heeft aangeboden [2].
Morele verantwoordelijkheid en juridische aansprakelijkheid kunnen echter uit elkaar liggen. Zo kan een kind moreel verantwoordelijk zijn voor zijn/haar acties, maar zullen de ouders aansprakelijk gesteld worden voor de uitkomst.
Verantwoordelijkheidsgevoel en vertrouwen
De zelfrijdende auto’s krijgen steeds meer controle en de bestuurder krijgt steeds minder controle over de auto. De algoritmen gaan namelijk mee ‘denken’ en voeren eigen keuzes door. Een risico is mogelijks de kans op het verliezen van bepaalde kwaliteiten en handmatige vaardigheden om een auto goed te kunnen besturen.
Het vertrouwen in autonome voertuigen rust op de integriteit, de voorspelbaarheid en de bereidheid die risico’s met zich meebrengen. Om vertrouwen te voeden is er communicatie en samenwerking nodig met de A.I. Een logische bijdrage aan het vertrouwen is de veiligheid en privacybescherming van de technologie.
Wanneer je echter te te veel vertouwen begint te krijgen in het systeem, wordt je eigen gedrag alleen maar passiever. Een balans hierin is van groot belang.
Autonomie
Stel een autonoom voertuig A en B hebben inzittenden en rijden op dezelfde snelweg. We nemen aan dat er iets gebeurt waardoor zowel de inzittenden van A, als de inzittenden van B mogelijk in gevaar zullen komen. Zowel de AI van A als de AI van B zal hierdoor handelen naar hun respectievelijke primaire belang. Beide autonome voertuigen zullen hun inzittenden beschermen en handelen hiermee ethisch juist. Als gevolg hiervan blijken de voertuigen niet te kunnen voorzien in hun secundaire belang, de veiligheid van de directe omgeving. Er gebeurt in deze situatie een ongeluk, ondanks het ethisch juist handelen van de AI van de autonome voertuigen. Een technische oplossing hiervoor zou zijn dat zowel A als B voor de botsing tot stilstand komt. Echter, gaat deze oplossing in tegen een ander belang van de AI van de voertuigen; namelijk, dat een autonoom voertuig zijn inzittenden verplaatst en daarom juist niet stilstaat.
In welke mate handelen wij dan nog uit vrije wil? Mensen halen plezier uit hun acties wanneer ze zien dat deze impact hebben op de wereld, ze gaan ze als positief ervaren [9].
Gevoel van controle en vrijheidskeuze leidt dus tot positieve resultaten op subjectieve ervaringen van autonomie. Zodra hier restricties bij komen kijken en bewustwordingen daarvan aangetoond zijn, dreigt de motivatie en het verantwoordelijkheidsgevoel te dalen.
Besluit
Er is een grote samenhang tussen de determinanten van het verantwoordelijkheidsgevoel. Als eerste moet de samenwerking tussen een automatisering en de mens goed verlopen. Een grote factor tussen deze twee is vertrouwen, dat gebaseerd kan zijn op diverse percepties.
Echter moet er wel een gezonde hoeveelheid wantrouwen blijven bestaan om mensen niet te passief te laten handelen. De balans kan worden behaald door invloed uit te oefenen op bewustwording, wat weer samenhangt met de mate waarin autonomie ervaren wordt.
Discussie
Wat vind je van zelfrijdende auto’s? Vertrouw je deze autonome auto’s? Hoe zou je omgaan met je verantwoordelijkheidsgevoel? Wat zou moeten veranderen om de aansprakelijkheid bij de chauffeur te leggen?
Bibliografie
- [1] M. M. A. van den Bos, “Verantwoordelijkheidsinvloeden op bestuurders van zelfrijdende auto’s,” Utrecht University Repository, 2021. https://dspace.library.uu.nl/handle/1874/405973 (accessed Nov. 11, 2021).
- [2] R. C. Eggink, “Ongelukken Met Autonome Voertuigen: Wanneer het verschil tussen causale verantwoordelijkheid en juridische aansprakelijkheid problematisch blijkt,” Utrecht University Repository, 2021. https://dspace.library.uu.nl/handle/1874/406339 (accessed Nov. 11, 2021).
- [3] T. Timan and F. Grommé, “Wat is rechtvaardige AI?,” Beleid en Maatschappij, vol. 47, no. 4, pp. 425–438, Dec. 2020, doi: 10.5553/benm/138900692020047004009.
- [4] Europarl, “Wat is artificiële intelligentie en hoe wordt het gebruikt?,” www.europarl.europa.eu, Apr. 09, 2020. https://www.europarl.europa.eu/news/nl/headlines/society/20200827STO85804/wat-is- artificiele-intelligentie-en-hoe-wordt-het-gebruikt (accessed Nov. 11, 2021).
- [5] SAE International, “Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles,” www.sae.org, Apr. 30, 2021. https://www.sae.org/standards/content/j3016_202104 (accessed Nov. 20, 2021).
- [6] P. Lin, “The ethical dilemma of self-driving cars,” TED-Ed, Dec. 08, 2015. https://ed.ted.com/lessons/the-ethical-dilemma-of-self-driving-cars-patrick-lin (accessed Nov. 20, 2021).
- [7] K. Congor, “Google Removes ‘Don’t Be Evil’ Clause From Its Code of Conduct,” Gizmodo.com, May 05, 2018. https://gizmodo.com/google-removes-nearly-all-mentions-of-dont-be-evil-from- 1826153393 (accessed Nov. 11, 2021).
- [8] J. Li, X. Zhao, M.-J. Cho, W. Ju, and B. F. Malle, “From Trolley to Autonomous Vehicle: Perceptions of Responsibility and Moral Norms in Traffic Accidents with Self-Driving Cars,” SAE Technical Paper Series, Apr. 2016, doi: 10.4271/2016-01-0164.
- [9] Q. André et al., “Consumer Choice and Autonomy in the Age of Artificial Intelligence and Big Data,” Customer Needs and Solutions, vol. 5, no. 1–2, pp. 28–37, Dec. 2017, doi: 10.1007/s40547-017- 0085-8.
- [10] D. Misselbrook, “The trolley problem, 2021 style,” British Journal of General Practice, vol. 71, no. 703, pp. 75–75, Feb. 2021, doi: 10.3399/bjgp21X714773.