De AI Liability Directive: wat staat erin?

De AI Act is ingericht als ‘compliance wetgeving’. Dit houdt in dat de AI Act voornamelijk verplichtingen oplegt op het gebied van transparantie en veiligheid aan zij die trachten te profiteren van het gebruik van AI en daarbij risico’s meebrengen voor de rechten van betrokkenen. Als aanbieders, importeurs, distributeurs of exploitanten niet aan deze verplichtingen kunnen voldoen, bestaat het gevaar dat de toezichthoudende autoriteit met sancties om de hoek komt kijken.

Hetzelfde kan gezegd worden voor de uit AVG voortvloeiende verplichtingen en het optreden van de Autoriteit Persoonsgegevens. De AVG kent in tegenstelling tot de AI Act ook rechten toe aan de betrokkenen, waaronder het recht op een schadevergoeding.1 Met betrekking tot AI zijn er een tweetal wetsvoorstellen aanhangig waarin de schadevergoeding voor slachtoffers wordt geregeld. Het gaat daarbij om de Richtlijn AI-aansprakelijkheid (ook wel bekend als de ‘AI Liability Directive’)2 en de herziening van de Richtlijn Productaansprakelijkheid. Eerstgenoemde is bedoeld als aanvulling op de AI Act, laatstgenoemde is erop gericht de huidige productaansprakelijkheid te moderniseren. In deze bijdrage wordt stilgestaan bij Richtlijn AI-aansprakelijkheid. Binnenkort zal een tweede blog volgen over de herziene Richtlijn Productaansprakelijkheid.

De Richtlijn

De Richtlijn AI-aansprakelijkheid zal gaan gelden voor niet-contractuele civielrechtelijke vorderingen tot vergoeding voor een door AI-systeem veroorzaakte schade. Dit houdt in dat de richtlijn gaat over situaties waarin een betrokkene schade lijdt door AI, zonder dat er een contractuele verhouding tussen de aanbieder en de betrokkene is. De richtlijn beoogt nadrukkelijk niet om de algemene aspecten van aansprakelijkheidsrecht van lidstaten te beïnvloeden. Het gaat enkel om uniforme regels over de bewijslast voor betrokkenen die (mogelijk) benadeeld zijn door AI-systemen.

Daarbij is van belang om in ogenschouw te nemen dat het hier een voorstel voor een richtlijn betreft. Het is denkbaar dat er in de komende tijd nog wijzigingen zullen worden aangebracht in de richtlijn. Ook moet de richtlijn dus nog omgezet worden naar nationaal recht, wat doorgaans een tijdrovend proces is. Het is echter niet zo dat lidstaten naar eigen goeddunken mogen knutselen aan de richtlijn. De basisprincipes blijven overeind staan, maar lidstaten mogen deze zo inrichten dat ze passen binnen de nationale wetgeving. Daarmee zorgt de EU ervoor dat er binnen de EU een bepaalde mate van harmonisatie bestaat. Een goede zet, aangezien AI doorgaans grensoverschrijdend is, nu het gebruik van AI niet beperkt wordt door landsgrenzen. Daarnaast geldt de AI Act ook binnen de EU.

Schade door AI

Normaal gesproken dient de partij die zich op een rechtsgevolg wil beroepen, dat te bewijzen. Als persoon A stelt schade te hebben geleden door toedoen van persoon B, moet persoon A met feiten en omstandigheden komen om te bewijzen dat hiervan sprake is. Als persoon A schade heeft geleden als gevolg van roekeloos rijden door persoon B, zal dit wellicht te doen zijn voor persoon A. In het geval van AI is het zeer lastig – al dan niet onmogelijk – om te bewijzen dat hij of zij schade heeft ondervonden door fouten van een AI-systeem. De gemiddelde persoon bezit immers niet de benodigde informatie over de werking van het AI-systeem of bezit überhaupt geen diepgaande kennis over de werking van AI-systemen. De betrokkene verkeert in zulke situaties in een zwakke bewijspositie.

Het is echter gebruikelijk dat EU-wetgeving bepalingen in het leven roept om de zwakkere partij te beschermen. Zo wordt de positie van de consument beschermd ten opzichte van bedrijfsmatige verkopers of dienstverleners, geeft de AVG-betrokkenen de regie ten aanzien van hun persoonsgegevens en wordt bij een gebrek in een product aangenomen dat dit door een fout in de productie komt. De Richtlijn AI-aansprakelijkheid bouwt voort op deze benadering.

In de richtlijn is een omkering van de bewijslast opgenomen. Zodra een betrokkene schade lijdt en het aannemelijk is dat deze schade door een fout in het AI-systeem is ontstaan als gevolg van onzorgvuldig handelen van de verweerder, zal de verweerder dit moeten ontzenuwen. Lukt dit niet, dan wordt aangenomen dat de schade is ontstaan door het AI-systeem.3 Voor aanbieders van AI in veiligheidscomponenten van gereguleerde producten is ook sprake van ‘onzorgvuldig’ handelen indien zij niet volledig AI Act-compliant waren. Gezien het indrukwekkende aantal verplichtingen dat geldt voor aanbieders van dergelijke AI-systemen, is het realistisch dat de aanbieder de naleving niet volledig aan kan tonen. Voor exploitanten van dergelijke AI-systemen wordt het onzorgvuldige handelen vermoed als het systeem niet conform de gebruiksaanwijzing of irrelevante inputdata is gebruikt. Vanuit het bedrijfsleven wordt logischerwijs niet overal even enthousiast gereageerd op de conceptrichtlijn. 4

Opvragen (bewijs)materiaal

Bovenstaand bewijsvermoeden is in het voordeel van de betrokkene, maar hij of zij zal alsnog aannemelijk moeten maken dat de aanbieder een zorgvuldigheidsplicht heeft geschonden en dat betrokkene daardoor schade heeft geleden. De Richtlijn AI-aansprakelijkheid bevat echter nog een tweede steuntje in de rug voor de betrokkene.De betrokkene kan namelijk bij de aanbieder een verzoek indienen om relevant bewijsmateriaal af te geven. Voorwaarde is dat betrokkene en geloofwaardige claim kan overleggen. 5

Conclusie

Het concept van de Richtlijn AI-aansprakelijkheid is bedoeld om de door AI benadeelde betrokkenen te helpen in het vergaren van bewijs. Dit valt uiteen in een bewijsvermoeden en het recht om bewijsmateriaal op te vragen. Lidstaten kunnen de richtlijn implementeren op een manier dat deze twee instrumenten aansluiten op de nationale wetgeving. Voor betrokkenen verzekert de richtlijn een versterkte positie, maar vanuit het bedrijfsleven wordt minder enthousiast gereageerd. Bedrijven vrezen dat ze bij een geringe inbreuk op een verplichting uit de AI Act meteen aansprakelijk zullen zijn. In de huidige vorm van de richtlijn is dat begrijpelijk, omdat een realistisch scenario is dat het aantal claims vanuit betrokkenen toeneemt. Het daadwerkelijke aantal zal afhangen met name van de invulling van de term ‘geloofwaardig’. Ik verwacht dat de soep niet zo heet gegeten wordt als ze wordt opgediend. De richtlijn voorziet enkel in een bewijsvermoeden in het kader van het causale verband tussen het onzorgvuldig handelen van de AI-aanbieder en de door betrokkene geleden schade. Het wil dus niet zeggen dat wanneer een AI-aanbieder heeft verzuimd te voldoen aan bepaald voorschrift uit de AI Act, dat meteen massaclaims toegewezen zullen worden. Er zal de komende tijd nog stevig gedebatteerd worden over het concept. Wij zullen deze ontwikkelingen in elk geval nauwgezet volgen.


1Volgens art. 82 AVG. In de praktijk is dit artikel van ondergeschikt belang.

2 Zie voor de laatste versie: https://eur-lex.europa.eu/legal-content/NL/TXT/PDF/?uri=CELEX:52022PC0496.

3 Art. 4 van de conceptrichtlijn.

4 https://www.brookings.edu/articles/the-eus-attempt-to-regulate-open-source-ai-is-counterproductive/.

5 Art. 3 van de conceptrichtlijn.

Terug naar overzicht