maart 2022 - Jaarbeurs
High tech / 20 maart 2018

Wie is verantwoordelijk indien robots dodelijke slachtoffers maken?

Robots in alle vormen en maten worden steeds slimmer dankzij de implementatie van kunstmatige intelligentie (AI). Deze technologie stelt robots in staat op basis van waarnemingen of data eigenhandig conclusies te trekken en op basis hiervan te handelen. Wie is er echter verantwoordelijk indien een robot voorzien van AI een dodelijk slachtoffer maakt?

Deze vraag heeft John Kington, hoogleraar Informatiesystemen en Business Computing bij de Britse University of Brighton, onderzocht. In een paper zet Kingston zijn bevindingen uiteen. De hoogleraar wijst in zijn paper op eerder onderzoek uit 2010 van Gabriel Hallevy, een hoogleraar verbonden aan de faculteit Recht van de Israëlische Ono Academic College. Hallevy heeft in zijn paper verschillende juridische modellen uiteengezet voor het juridische beoordelen van overtreden door AI-systemen. 

1. Indirecte dader (perpetrator-via-another)

Indien de wet wordt overtreden door een mentaal onbekwaam persoon zoals een kind of een dier wordt de dader onschuldig geacht aangezien hij of zij niet over de mentale capaciteit beschikt om een ‘kwade opzet’ (mens rea) te vormen. Indien de dader in dit geval echter door een derde persoon is geïnstrueerd een overtreding te begaan, is deze derde persoon juridisch verantwoordelijk. 

Volgens dit model kan een AI-programma worden bestempeld als een mentaal onbekwaam persoon, concludeert Hallevy. De ontwikkelaar of de gebruiker van een AI-algoritme zou echter verantwoordelijk kunnen worden gesteld voor de overtreding die de AI heeft gepleegd. 

2. Natuurlijke en waarschijnlijk gevolg (natural-probable-consequence)

Dit model is van toepassing indien een deel van een AI-programma dat voor legitieme doeleinden is ontwikkeld onjuist wordt ingezet en hierdoor een overtreding begaat. Als voorbeeld noemt Hallevy een medewerker van een fabriek waar motorfietsen worden geproduceerd, die wordt gedood door de robot met AI die naast hem werkt. De robot blijkt in dit geval de werknemers als een dreiging voor zijn missie te hebben aangemerkt en te hebben geconcludeerd dat de medewerker in een aangrenzende machine duwen de meest efficiënte methode is om deze uitdaging te elimineren. Met behulp van zijn hydraulische arm heeft de robot de nietsvermoedende werknemer in deze machine geduwd, waarbij de werknemer om het leven is gekomen. 

Natuurlijk en waarschijnlijk gevolg wordt doorgaans toegepast om medeplichtigen te kunnen vervolgen voor een misdaad. Zo biedt de Amerikaanse wet de ruimte een verdachte verantwoordelijk te houden indien een wetsovertreding het natuurlijke en waarschijnlijke gevolg is van een actie die de medeplichtige heeft aangemoedigd of ondersteund. Een voorwaarde hiervoor is wel dat de medeplichtige zich ervan bewust was dat de uitgevoerde handeling illegaal is. 

Dit model maakt het volgens Hallevy mogelijk een gebruiker of programmeur verantwoordelijk te houden indien zij zich bewust waren dat een overtreding van de wet het natuurlijke en waarschijnlijke gevolg was van het programma dat zij hebben gebruikt of ontwikkeld. Hallevy stelt wel dat hierbij onderscheid moet worden gemaakt tussen AI-programma’s die ‘weten’ dat de handeling die zij uitvoeren illegaal is (indien het programma bijvoorbeeld specifiek is geschreven om een criminele handeling uit te voeren) en AI-programma’s die dit niet weten (indien het programma geprogrammeerd is voor een ander doeleinde). Hallevy vermoedt dat de laatste groep niet aangeklaagd kan worden voor overtredingen waarbij ‘kwade opzet’ vereist is.  

3. Directe aansprakelijkheid

Directe aansprakelijkheid heeft volgens Hallevy betrekking op zowel de daad (actus rea) als de intentie van de dader (mens rea). Hallevy stelt dat de actus rea relatief eenvoudig kan worden toegewezen aan een AI-systemen, bijvoorbeeld in situaties waarin het systeem een handeling uitvoert die resultaat in een overtreding van de wet of het systeem juist verzuimt een actie uit te voeren indien deze wel uitgevoerd zou moeten worden.

Het toewijzen van mens rea aan een AI-systeem is volgens de onderzoeker echter veel moeilijker. AI-systemen zullen naar verwachting dan ook vooral aansprakelijk worden gesteld in gevallen waarbij het niet van belang is of een overtreding bewust is gemaakt. Als voorbeeld noemt Hallevy een situatie waarin een zelfrijdende auto het snelheidslimiet overschrijdt, waarmee aantoonbaar een wetsovertreding wordt begaan. In dit geval ligt de juridische verantwoordelijkheid hiervoor volgens de onderzoeker volledig bij het AI-programma dat de auto tijdens deze rit aanstuurde, en niet bij de gebruiker. 

Verdediging

In de paper wordt ook gekeken naar de wijze waarop een AI-systeem zich in de rechtbank zou kunnen verdedigen tegen aantijgingen. Zo wijst Hallevy op verschillende rechtszaken op het gebied van cybercriminaliteit, waarin met succes als verdediging werd aangedragen dat kwaadaardige software de controle over de computer van de verdachte had overgenomen. De criminele handeling zouden door deze kwaadaardige software zijn gepleegd en dus niet de verantwoordelijkheid zijn van de eigenaar van het systeem.

Op basis van de juridische modellen die Hallevy uiteen heeft gezet concludeert Kingston dat de juridische verantwoordelijkheid van AI-systemen afhankelijk is van drie factoren:

  1. Of een AI een product of een dienst is. Dit is in de wet niet duidelijk vastgelegd; verschillende experts hebben hier een andere kijk op. 
  2. Welke mens rea vereist is om een handeling als een criminele overtreding te classificeren. Het is volgens Kingston onwaarschijnlijk dat een AI-programma schuldig kan worden bevonden aan het overtreden van een wet die vereist dat de dader een criminele handeling bewust heeft uitgevoerd. Kingston noemt het echter wel mogelijk dat AI-systemen schuldig worden bevonden aan het overtreden van de wet indien zij een actie uitvoeren waarvan een ‘redelijk man zou hebben geweten’ dat dit zouden leiden tot een wetsovertreding. Ook stelt Kingston dat AI-systemen met grote zekerheid schuldig kunnen zijn in zaken rond de aansprakelijkheid voor de consequenties van bepaalde handelingen. 
  3. Of de beperkingen van AI-systemen worden gecommuniceerd met de koper. Sommige AI-systemen hebben zowel algemene als specifieke beperkingen. In rechtszaken kan volgens Kingston worden verwezen naar de specifieke woorden die zijn gebruikt in waarschuwingen omtrent deze beperkingen. 

Wie is verantwoordelijk?

Tot slot rijst de vraag wie verantwoordelijk is voor overtredingen gepleegd door AI-systemen. Dit is volgens Kingston afhankelijk van welk van de drie modellen van Hallevy worden toegepast:

  • Indirecte dader (perpetrator-via-another): de persoon die het AI-systeem instrueert een handeling uit te voeren wordt volgens Kingston waarschijnlijk verantwoordelijk gesteld. Dit kan de gebruiker of de programmeur zijn. 
  • Natuurlijke en waarschijnlijk gevolg (natural-probable-consequence): In dit geval kan een persoon die had kunnen voorzien dat het AI-product op deze wijze zou worden ingezet volgens de hoogleraar verantwoordelijk worden gesteld. Dit kan de programmeur, verkoper van een product of de service provider zijn. Het is in dit geval volgens Kingston minder waarschijnlijk dat de gebruiker verantwoordelijk wordt gesteld, tenzij de instructies die bij het systeem zijn meegeleverd de beperkingen van het systeem duidelijk aangeven en de mogelijke consequenties van verkeerd gebruik uitvoerig bespreken. 
  • Directe aansprakelijkheid: AI-programma’s kunnen aansprakelijk worden gesteld voor de consequenties van uitgevoerde handelingen. In de praktijk zal dit waarschijnlijk betekenen dat de programmeur die het AI-programma heeft gebouwd verantwoordelijk wordt gesteld. 

Kingston merkt overigens wel op dat in alle gevallen waarin de programmeur verantwoordelijk wordt gesteld, gediscussieerd kan worden of de fout ligt bij de programmeur, de ontwerper van het AI-programma, de expert die de benodigde kennis heeft aangeleverd of de manager die een onbekwame ontwerper of programmeur heeft aangesteld. 

Meer informatie is te vinden in de paper ‘Artificial Intelligence and Legal Liability‘ van Kingston. 

Auteur: Wouter Hoeffnagel
Bron: Paper ‘Artificial Intelligence and Legal Liability van John Kingston
Bron foto: Pixabay / jarmoluk

Deel dit artikel

Meer nieuws

Flexibele backstop kan helpen bij aanpak netcongestie

Flexibele backstop kan helpen bij aanpak netcongestie

(PARTNER NIEUWS)
Energie / 19-11-2024
(productnews)
Een flexibele ‘backstop’ kan helpen met het oplossen van de netcongestie die in Nederland steeds vaker ontstaat....
Een flexibele ‘backstop’ kan helpen met het oplossen van de netcongestie die in Nederland steeds vaker ontstaat. Het gaat om een klein apparaatje dat de hoeveelheid elektriciteit die bijvoorbeeld een...
Energie / 19-11-2024
Lees meer

Nieuwe techniek maakt 3D-printen (LPBF) flexibeler en efficiënter

(productnews)
Een nieuwe benadering van bundelvorming zal additieve manufacturing binnenkort flexibeler en efficiënter maken. Fraunhofer...
Een nieuwe benadering van bundelvorming zal additieve manufacturing binnenkort flexibeler en efficiënter maken. Fraunhofer ILT heeft een nieuw platform ontwikkeld. Hiermee is het mogelijk om laser powder bed fusion (LPBF)...
Algemeen / 18-11-2024
Lees meer

Invest-NL: ‘Nederland kan wereldleider worden in Lab-on-Chip technologie’

(productnews)
Nederland kan wereldleider worden in de ontwikkeling van Lab-on-Chip (LoC) technologie, concludeert Invest-NL op basis van...
Nederland kan wereldleider worden in de ontwikkeling van Lab-on-Chip (LoC) technologie, concludeert Invest-NL op basis van onderzoek. Wel bestaat een kritieke financieringskloof en vormt regelgeving een obstakel voor opschaling. Invest-NL...
Algemeen / 18-11-2024
Lees meer

Groen netwerken

Groen netwerken

(PARTNER NIEUWS)
Blog / 15-11-2024
(productnews)
Nederland heeft internationaal een naam op te houden in de maakchemie. Maar om toonaangevend te blijven, moet het groener....
Nederland heeft internationaal een naam op te houden in de maakchemie. Maar om toonaangevend te blijven, moet het groener. Juist nu de focus moet liggen op duurzame productie, kampen bedrijven...
Blog / 15-11-2024
Lees meer

Blijf op de hoogte, schrijf je in voor onze nieuwsbrief

Je ontvangt maximaal 1x per week het laatste nieuws per email.
Inschrijven