Op 11 februari heeft de Europese Commissie (EC) bekendgemaakt dat de AI-aansprakelijkheidsrichtlijn (Engels: AI Liability Directive; AILD) er niet gaat komen. Dat staat in het werkprogramma voor 2025 van de EC.
Hoewel dit past in de versimpelingsstrategie van de EC (met als slagzin: “Samen vooruit: een brutalere, eenvoudigere, snellere Unie”), laat het schrappen van de AILD een groot gat achter in de vergoeding van schade door AI-systemen.
In dit artikel kijken we naar de inhoud van de richtlijn, de redenen waarom zij is ingetrokken, wat de gevolgen kunnen zijn voor slachtoffers van AI-schade, en wat er nu mogelijk gaat gebeuren.
De AILD was ontworpen om nationale regels voor buitencontractuele aansprakelijkheid bij AI-schade (schade waar geen contract aan ten grondslag ligt) te harmoniseren. Wij schreven er al eerder over. In normale gevallen moet een slachtoffer bewijzen dat de dader de schade heeft veroorzaakt. De AILD stelde juist voor dat de aanbieder van de AI moest aantonen dat de schade niet door zijn AI-systeem kwam. Als het slachtoffer aannemelijk had gemaakt dat het door het AI-systeem kwam tenminste.
Daarnaast kregen slachtoffers het recht op meer inzicht in hoe de AI werkte als dat relevant was voor hun zaak. De AI Act verplicht aanbieders om logs en documentatie op te stellen en bij te houden, maar geeft het slachtoffer geen recht op deze informatie. Dit bewijsmateriaal is wel nodig voor rechtszaken.
Een AI-systeem beoordeelt sollicitaties en selecteert kandidaten voor een gesprek. De data waarop het systeem is getraind bevat (onbewuste) vooroordelen, waardoor leden van een bepaalde groep veel vaker worden afgewezen. Zonder AILD is het voor de afgewezen sollicitant lastig om de aanbieder aansprakelijk te stellen, onder meer omdat het verband tussen de ‘beslissing’ van de AI en de schade (niet aangenomen worden) moeilijk te bewijzen is. Daarnaast is het voor afgewezen sollicitanten niet mogelijk om in het AI-systeem te kijken.
De AILD was een aanvulling geweest op:
Door de AILD nu zonder vervangend plan te schrappen, blijven er gaten achter in de nationale aansprakelijkheidsregimes. De AI Act en nieuwe PLD gingen immers uit van de AILD.
Stel dat een AI-systeem met hoog risico op zich prima functioneert, maar de aanbieder negeert belangrijke verplichtingen uit de AI Act (bijvoorbeeld geen menselijk toezicht, geen check op vooringenomenheid in de data of geen logging). Is dat systeem dan echt ‘defect’ volgens de nieuwe PLD? En hoe zit het bij zuiver financiële schade (bijvoorbeeld een onterecht geweigerde uitkering) of reputatieschade? Die vallen hoe dan ook niet onder de nieuwe PLD. En slachtoffers hebben geen recht om de documentatie op te vragen, dus kunnen niet bewijzen dat deze gebrekkig of niet-bestaand is. Hetgeen wel nodig is om van een onrechtmatige daad te kunnen spreken.
Naast de bovengenoemde gaten in aansprakelijkheidsregimes, concludeerde een studie van het Europees Parlement in september vorig jaar al dat een uniforme aanpak voor AI-aansprakelijkheid absoluut noodzakelijk was. Het gebrek daaraan vergroot de kans op rechtsonzekerheid en mogelijke rechtsongelijkheid tussen de verschillende EU-lidstaten.
Denk aan een auto met een motor en remmen die naar behoren werken. Technisch gezien lijkt er niets mis. Maar stel dat de fabrikant de auto heeft gebouwd zonder enige veiligheidskeuring of zonder verplichte gordels. Zolang de auto nog rijdt en de remmen niet falen, is het alleen maar een defect product omdat dat wettelijk zo geregeld is. Bij lichamelijke schade na een ongeluk doordat er geen gordels in zitten, is de fabrikant dan aansprakelijk.
Bij hoog-risico AI kan het net zo gaan: het systeem kan doen wat de aanbieder bedoelde, maar als er nooit controle is geweest op discriminatie, logging of menselijk toezicht, kunnen er wél grote risico’s zijn. Wie is dan aansprakelijk voor de schade die (misschien pas later) ontstaat? Dat is niet wettelijk bepaald zolang er geen AILD of vergelijkbare wet is.
Volgens de EC is er geen zicht meer op een akkoord: in het Europees Parlement liep de kritiek op de AILD uiteen van ‘te vergaand’ tot ‘niet ver genoeg’, lidstaten (onder leiding van Frankrijk) verzetten zich en ook enkele EU-Commissarissen waren tegen. Het voorstel bleek daardoor onhoudbaar. De kritiek op het voorstel van de Verenigde Staten vanuit JD Vance kwam mogelijk net te laat, maar kan ook een rol gespeeld hebben.
Toch is de kans groot dat de EC met een nieuw voorstel of een andere aanpak komt, want de problemen die de AILD moest oplossen, bestaan nog steeds. Dat is de EC nu aan het inventariseren. Zo zou een verordening (vergelijkbaar met de AI Act) direct in alle lidstaten van kracht worden, wat zorgt voor duidelijkere en snellere regels.
Aangezien de AI Act en de nieuwe PLD juist zijn ontworpen met het idee dat er ook een AILD zou komen, zit de EU nu in een vacuüm. Er is behoefte aan duidelijke EU-regels, vooral als AI-toepassingen steeds belangrijker worden in banen, verzekeringen, overheidsbeslissingen en andere alledaagse situaties.
De vraag blijft hoe de Commissie de opengelaten gaten gaat dichten. Drie mogelijke toekomstscenario’s staan hieronder.
Het laat zich moeilijk voorspellen welk scenario het meest aannemelijk is. Maar het is wel duidelijk dat het intrekken van de AILD een kloof achterlaat in het aansprakelijkheidsrecht voor AI.
Hulp nodig bij verantwoord gebruik van AI? Wij kunnen je helpen! Ontdek op onze website hoe we jouw organisatie kunnen ondersteunen.
Meld je nu aan voor één van de nieuwsbrieven van ICTRecht en blijf op de hoogte van onderwerpen zoals AI, contracteren, informatiebeveiliging, e-commerce, privacy, zorg & ICT en overheid.