Vragen & antwoorden: Richtlijn AI-aansprakelijkheid

Met dank overgenomen van Europese Commissie (EC) i, gepubliceerd op woensdag 28 september 2022.

De richtlijn AI-aansprakelijkheid is een aanvulling op het EU-kader voor civielrechtelijke aansprakelijkheid en moderniseert dat rechtskader. De nieuwe richtlijn bevat voor het eerst regels die specifiek van toepassing zijn op door AI-systemen veroorzaakte schade.

Door de nieuwe regels kunnen mensen die als gevolg van AI-technologie schade hebben geleden, schadeloosstelling krijgen op dezelfde wijze als wanneer zij onder andere omstandigheden schade hadden geleden. De richtlijn voorziet in twee belangrijke nieuwe maatregelen: het vermoeden van een oorzakelijk verband, dat de slachtoffers ontslaat van de verplichting om gedetailleerd uiteen te zetten op welke wijze de schade door een bepaalde fout of nalatigheid is veroorzaakt, en de toegankelijkheid van bewijsmateriaal afkomstig van bedrijven of leveranciers in geval van AI met een hoog risico.

  • Waarom is een nieuwe richtlijn nodig?

Naarmate de technologische vooruitgang vordert, moeten ook garanties worden geboden om ervoor te zorgen dat consumenten in de EU, ook in het digitale tijdperk, een zo goed mogelijke bescherming genieten. De Commissie is vastbesloten ervoor te zorgen dat baanbrekende technologische innovatie nooit ten koste gaat van de waarborgen voor de burgers. Er is een geharmoniseerd rechtskader op EU-niveau vereist om juridische fragmentatie te voorkomen bij het opvullen van lacunes die door deze ongekende technologische vooruitgang ontstaan.

De huidige nationale aansprakelijkheidsregels zijn niet toegerust om vorderingen te behandelen in geval van schade die is veroorzaakt door op AI gebaseerde producten en diensten. Bij schuldaansprakelijkheidsvorderingen moet het slachtoffer vaststellen wie aansprakelijk moet worden gesteld en moeten de fout, de schade en het oorzakelijk verband tussen beide gedetailleerd worden toegelicht. Dit is niet altijd gemakkelijk, zeker als AI in het spel is. Het is vaak zo dat systemen complex en ondoorzichtig zijn en autonoom fungeren, waardoor het voor slachtoffers uiterst moeilijk, zo niet onmogelijk is om aan deze bewijslast te voldoen. Een van de belangrijkste taken van de civielrechtelijke aansprakelijkheidsregels is ervoor te zorgen dat slachtoffers van schade schadevergoeding kunnen vorderen. Als uitdagingen in verband met AI het te moeilijk maken om schadevergoeding te verkrijgen, is er geen sprake van effectieve toegang tot de rechter. De nieuwe regels waarborgen dat effectieve schadeloosstelling kan worden verkregen en dragen zo bij tot de bescherming van het recht op een doeltreffende voorziening in rechte en op een onpartijdig gerecht, die beide zijn opgenomen in het Handvest van de grondrechten van de EU.

Dankzij de nieuwe regels krijgen alle categorieën slachtoffers (zowel particulieren als bedrijven) een eerlijke kans op schadevergoeding als zij schade ondervinden door de schuld of nalatigheid van een aanbieder, ontwikkelaar of gebruiker van AI. Door te investeren in vertrouwen en te voorzien in garanties voor als er iets misgaat, investeren we bovendien in de sector en dragen we bij tot de acceptatie ervan in de EU. Doeltreffende bepalingen inzake aansprakelijkheid geven ook een economische stimulans om de veiligheidsvoorschriften na te leven en dragen er zo toe bij schade te voorkomen.

  • Wat hebben slachtoffers aan deze richtlijn?

De nieuwe regels gelden voor nationale aansprakelijkheidsvorderingen op grond van schuld of nalatigheid van personen (aanbieders, ontwikkelaars, gebruikers), voor de vergoeding van alle soorten schade die onder het nationale recht vallen (leven, gezondheid, eigendom, privacy enz.) en voor alle categorieën slachtoffers (personen, bedrijven, organisaties enz.).

Met de nieuwe regels worden twee belangrijke waarborgen ingevoerd:

  • Ten eerste verlicht de richtlijn AI-aansprakelijkheid de bewijslast voor slachtoffers door de invoering van een vermoeden van oorzakelijk verband: indien slachtoffers kunnen aantonen dat iemand een fout heeft gemaakt doordat die persoon een bepaalde verplichting die relevant is voor de schade niet heeft vervuld, en dat een oorzakelijk verband met de AI-verrichtingen redelijkerwijs waarschijnlijk is, kan de rechter ervan uitgaan dat de schade door deze niet-vervulling is veroorzaakt. Anderzijds kan de aansprakelijk gestelde persoon dit vermoeden weerleggen (bijvoorbeeld door aan te tonen dat de schade door iets anders is veroorzaakt).
  • Ten tweede zal de nieuwe richtlijn AI-aansprakelijkheid slachtoffers helpen relevant bewijsmateriaal te verkrijgen wanneer schade wordt veroorzaakt doordat bijvoorbeeld een drone-operator die pakjes bezorgt de gebruiksaanwijzing niet in acht neemt, of doordat een aanbieder de vereisten bij het gebruik van AI-ondersteunde aanwervingsdiensten niet naleeft. Slachtoffers kunnen de rechter verzoeken de verstrekking te gelasten van informatie over AI-systemen met een hoog risico. Dit zal slachtoffers in staat stellen de persoon te identificeren die aansprakelijk kan worden gesteld en te achterhalen wat er fout is gegaan. Anderzijds zal de informatieverstrekking onderworpen zijn aan passende waarborgen om gevoelige informatie, zoals bedrijfsgeheimen, te beschermen.

Samen met de herziene richtlijn productaansprakelijkheid zullen de nieuwe regels het vertrouwen in AI bevorderen door ervoor te zorgen dat slachtoffers daadwerkelijk een vergoeding kunnen krijgen als er schade optreedt ondanks de preventiebepalingen van de AI-verordening en andere veiligheidsvoorschriften.

  • Op welk soort AI heeft het voorstel betrekking?

De bedoeling van de richtlijn is slachtoffers die schade ondervinden van AI-systemen dezelfde bescherming te bieden als zij zouden krijgen bij schade die door andere omstandigheden is veroorzaakt. Het voorstel voor een richtlijn AI-aansprakelijkheid is dus van toepassing op schade die wordt veroorzaakt door alle soorten AI-systemen, ongeacht het risiconiveau waarmee die gepaard gaan.

  • Wat voor bijdrage leveren de nieuwe regels aan innovatie en ontwikkeling op AI-gebied?

Het voorstel voor de richtlijn AI-aansprakelijkheid zorgt voor een evenwicht tussen de belangen van slachtoffers van schade in verband met AI-systemen en de belangen van bedrijven die in de sector actief zijn.

Daartoe heeft de Commissie gekozen voor het minst interventionistische instrument om de bewijslast te verlichten, namelijk toepassing van een weerlegbaar vermoeden. Als zodanig suggereert de richtlijn AI-aansprakelijkheid geen omkering van de bewijslast. Zo wordt voorkomen dat aanbieders, exploitanten en gebruikers van AI-systemen worden blootgesteld aan hogere aansprakelijkheidsrisico's die de innovatie van AI-ondersteunde producten en diensten zouden kunnen belemmeren.

Door ervoor te zorgen dat slachtoffers van AI hetzelfde beschermingsniveau genieten als in gevallen waarbij geen AI-systemen betrokken zijn, draagt het voorstel voor de richtlijn AI-aansprakelijkheid bij tot het versterken van het vertrouwen van het publiek in AI-technologieën. Dat is gunstig voor de invoering en acceptatie van AI in de EU.

Bedrijven zullen beter in staat zijn te anticiperen op de wijze waarop de bestaande aansprakelijkheidsregels zullen worden toegepast, en zo hun blootstelling aan aansprakelijkheid beter kunnen beoordelen en verzekeren. Dit geldt met name voor bedrijven die grensoverschrijdend handel drijven, waaronder ook kleine en middelgrote ondernemingen, die tot de meest actieve ondernemingen in de AI-sector behoren.

De herziene richtlijn productaansprakelijkheid moderniseert de bestaande risicoaansprakelijkheidsregeling voor producten op EU-niveau. Zij zal van toepassing zijn op vorderingen tegen fabrikanten wegens schade die wordt veroorzaakt door producten met gebreken, materiële verliezen die verband houden met verlies van mensenlevens, schade aan gezondheid of eigendom en verlies van gegevens, en is beperkt tot vorderingen van particulieren.

De nieuwe richtlijn AI-aansprakelijkheid voorziet in een gerichte hervorming van de nationale schuldaansprakelijkheidsregelingen. Zij zal van toepassing zijn op vorderingen tegen personen wegens een fout die van invloed is geweest op het AI-systeem dat de schade heeft veroorzaakt, ten aanzien van alle soorten schade die onder het nationale recht vallen (met inbegrip van schade die het gevolg is van discriminatie of schending van grondrechten zoals het recht op privacy), en die zijn ingesteld door van natuurlijke personen of rechtspersonen.

Wat de verlichting van de bewijslast betreft, introduceren de twee richtlijnen soortgelijke instrumenten (recht op toegang tot bewijsmateriaal, weerlegbaar vermoeden) en hanteren zij een soortgelijke formulering om de consistentie te waarborgen, ongeacht de gekozen wijze van compensatie.

De AI-verordening en de richtlijn AI-aansprakelijkheid zijn twee kanten van dezelfde medaille: zij zijn van toepassing op verschillende aspecten en ondersteunen elkaar. De op veiligheid gerichte voorschriften zijn in de eerste plaats bedoeld om risico's te reduceren en schade te voorkomen, maar de risico's zullen nooit volledig kunnen worden weggenomen. Aansprakelijkheidsbepalingen zijn nodig om ervoor te zorgen dat schade op een doeltreffende en realistische manier kan worden vergoed. De AI-verordening is gericht op het voorkomen van schade en de richtlijn AI-aansprakelijkheid voorziet in een vangnet voor de vergoeding van schade indien die desondanks optreedt.

In de richtlijn AI-aansprakelijkheid worden dezelfde definities gebruikt als in de AI-verordening. Het onderscheid tussen AI met een hoog risico en AI zonder hoog risico wordt gehandhaafd. De richtlijn AI-aansprakelijkheid past de documentatie- en transparantievereisten van de AI-verordening toe op aansprakelijkheid, door het recht te verlenen op verstrekking van informatie, en stimuleert aanbieders/gebruikers van AI-systemen om hun verplichtingen uit hoofde van de AI-verordening na te komen. De richtlijn zal van toepassing zijn op schade die wordt veroorzaakt door AI-systemen, ongeacht het risiconiveau ervan volgens de AI-verordening.

Meer informatie

Voorstel voor een richtlijn tot aanpassing van de regels inzake niet-contractuele civielrechtelijke aansprakelijkheid voor artificiële intelligentie

Persbericht

Vragen & antwoorden: Richtlijn productaansprakelijkheid

Witboek van de Commissie over kunstmatige intelligentie - Een Europese benadering op basis van excellentie en vertrouwen

Verslag van de Commissie over de gevolgen van kunstmatige intelligentie, het internet der dingen en robotica op het gebied van veiligheid en aansprakelijkheid

Verslag van de deskundigengroep over aansprakelijkheid voor artificiële intelligentie en andere opkomende digitale technologieën

Vergelijkende juridische studie over civielrechtelijke aansprakelijkheid in verband met artifiële intelligentie