Robots in alle vormen en maten worden steeds slimmer dankzij de implementatie van kunstmatige intelligentie (AI). Deze technologie stelt robots in staat op basis van waarnemingen of data eigenhandig conclusies te trekken en op basis hiervan te handelen. Wie is er echter verantwoordelijk indien een robot voorzien van AI een dodelijk slachtoffer maakt?
Deze vraag heeft John Kington, hoogleraar Informatiesystemen en Business Computing bij de Britse University of Brighton, onderzocht. In een paper zet Kingston zijn bevindingen uiteen. De hoogleraar wijst in zijn paper op eerder onderzoek uit 2010 van Gabriel Hallevy, een hoogleraar verbonden aan de faculteit Recht van de Israëlische Ono Academic College. Hallevy heeft in zijn paper verschillende juridische modellen uiteengezet voor het juridische beoordelen van overtreden door AI-systemen.
Indien de wet wordt overtreden door een mentaal onbekwaam persoon zoals een kind of een dier wordt de dader onschuldig geacht aangezien hij of zij niet over de mentale capaciteit beschikt om een ‘kwade opzet’ (mens rea) te vormen. Indien de dader in dit geval echter door een derde persoon is geïnstrueerd een overtreding te begaan, is deze derde persoon juridisch verantwoordelijk.
Volgens dit model kan een AI-programma worden bestempeld als een mentaal onbekwaam persoon, concludeert Hallevy. De ontwikkelaar of de gebruiker van een AI-algoritme zou echter verantwoordelijk kunnen worden gesteld voor de overtreding die de AI heeft gepleegd.
Dit model is van toepassing indien een deel van een AI-programma dat voor legitieme doeleinden is ontwikkeld onjuist wordt ingezet en hierdoor een overtreding begaat. Als voorbeeld noemt Hallevy een medewerker van een fabriek waar motorfietsen worden geproduceerd, die wordt gedood door de robot met AI die naast hem werkt. De robot blijkt in dit geval de werknemers als een dreiging voor zijn missie te hebben aangemerkt en te hebben geconcludeerd dat de medewerker in een aangrenzende machine duwen de meest efficiënte methode is om deze uitdaging te elimineren. Met behulp van zijn hydraulische arm heeft de robot de nietsvermoedende werknemer in deze machine geduwd, waarbij de werknemer om het leven is gekomen.
Natuurlijk en waarschijnlijk gevolg wordt doorgaans toegepast om medeplichtigen te kunnen vervolgen voor een misdaad. Zo biedt de Amerikaanse wet de ruimte een verdachte verantwoordelijk te houden indien een wetsovertreding het natuurlijke en waarschijnlijke gevolg is van een actie die de medeplichtige heeft aangemoedigd of ondersteund. Een voorwaarde hiervoor is wel dat de medeplichtige zich ervan bewust was dat de uitgevoerde handeling illegaal is.
Dit model maakt het volgens Hallevy mogelijk een gebruiker of programmeur verantwoordelijk te houden indien zij zich bewust waren dat een overtreding van de wet het natuurlijke en waarschijnlijke gevolg was van het programma dat zij hebben gebruikt of ontwikkeld. Hallevy stelt wel dat hierbij onderscheid moet worden gemaakt tussen AI-programma’s die ‘weten’ dat de handeling die zij uitvoeren illegaal is (indien het programma bijvoorbeeld specifiek is geschreven om een criminele handeling uit te voeren) en AI-programma’s die dit niet weten (indien het programma geprogrammeerd is voor een ander doeleinde). Hallevy vermoedt dat de laatste groep niet aangeklaagd kan worden voor overtredingen waarbij ‘kwade opzet’ vereist is.
Directe aansprakelijkheid heeft volgens Hallevy betrekking op zowel de daad (actus rea) als de intentie van de dader (mens rea). Hallevy stelt dat de actus rea relatief eenvoudig kan worden toegewezen aan een AI-systemen, bijvoorbeeld in situaties waarin het systeem een handeling uitvoert die resultaat in een overtreding van de wet of het systeem juist verzuimt een actie uit te voeren indien deze wel uitgevoerd zou moeten worden.
Het toewijzen van mens rea aan een AI-systeem is volgens de onderzoeker echter veel moeilijker. AI-systemen zullen naar verwachting dan ook vooral aansprakelijk worden gesteld in gevallen waarbij het niet van belang is of een overtreding bewust is gemaakt. Als voorbeeld noemt Hallevy een situatie waarin een zelfrijdende auto het snelheidslimiet overschrijdt, waarmee aantoonbaar een wetsovertreding wordt begaan. In dit geval ligt de juridische verantwoordelijkheid hiervoor volgens de onderzoeker volledig bij het AI-programma dat de auto tijdens deze rit aanstuurde, en niet bij de gebruiker.
In de paper wordt ook gekeken naar de wijze waarop een AI-systeem zich in de rechtbank zou kunnen verdedigen tegen aantijgingen. Zo wijst Hallevy op verschillende rechtszaken op het gebied van cybercriminaliteit, waarin met succes als verdediging werd aangedragen dat kwaadaardige software de controle over de computer van de verdachte had overgenomen. De criminele handeling zouden door deze kwaadaardige software zijn gepleegd en dus niet de verantwoordelijkheid zijn van de eigenaar van het systeem.
Op basis van de juridische modellen die Hallevy uiteen heeft gezet concludeert Kingston dat de juridische verantwoordelijkheid van AI-systemen afhankelijk is van drie factoren:
Tot slot rijst de vraag wie verantwoordelijk is voor overtredingen gepleegd door AI-systemen. Dit is volgens Kingston afhankelijk van welk van de drie modellen van Hallevy worden toegepast:
Kingston merkt overigens wel op dat in alle gevallen waarin de programmeur verantwoordelijk wordt gesteld, gediscussieerd kan worden of de fout ligt bij de programmeur, de ontwerper van het AI-programma, de expert die de benodigde kennis heeft aangeleverd of de manager die een onbekwame ontwerper of programmeur heeft aangesteld.
Meer informatie is te vinden in de paper ‘Artificial Intelligence and Legal Liability‘ van Kingston.
Auteur: Wouter Hoeffnagel
Bron: Paper ‘Artificial Intelligence and Legal Liability van John Kingston
Bron foto: Pixabay / jarmoluk