Er komt geen akkoord: de Europese Commissie trekt de AI Liability Directive in

Op 11 februari heeft de Europese Commissie (EC) bekendgemaakt dat de AI-aansprakelijkheidsrichtlijn (Engels: AI Liability Directive; AILD) er niet gaat komen. Dat staat in het werkprogramma voor 2025 van de EC.

Hoewel dit past in de versimpelingsstrategie van de EC (met als slagzin: “Samen vooruit: een brutalere, eenvoudigere, snellere Unie”), laat het schrappen van de AILD een groot gat achter in de vergoeding van schade door AI-systemen.

In dit artikel kijken we naar de inhoud van de richtlijn, de redenen waarom zij is ingetrokken, wat de gevolgen kunnen zijn voor slachtoffers van AI-schade, en wat er nu mogelijk gaat gebeuren. 

Belangrijke begrippen

  • AI (kunstmatige intelligentie): technologie die beslissingen neemt, content genereert, of voorspellingen doet op basis van algoritmes en data.
  • Aansprakelijkheid: de plicht om schade die je hebt veroorzaakt, te vergoeden. Dit kan binnen een contract gebeuren (contractueel), of buiten een contract (buitencontractueel), er is dan sprake van een fout of schuld.

Wat zou de AILD zijn geweest?

De AILD was ontworpen om nationale regels voor buitencontractuele aansprakelijkheid bij AI-schade (schade waar geen contract aan ten grondslag ligt) te harmoniseren. Wij schreven er al eerder over. In normale gevallen moet een slachtoffer bewijzen dat de dader de schade heeft veroorzaakt. De AILD stelde juist voor dat de aanbieder van de AI moest aantonen dat de schade niet door zijn AI-systeem kwam. Als het slachtoffer aannemelijk had gemaakt dat het door het AI-systeem kwam tenminste.

Daarnaast kregen slachtoffers het recht op meer inzicht in hoe de AI werkte als dat relevant was voor hun zaak. De AI Act verplicht aanbieders om logs en documentatie op te stellen en bij te houden, maar geeft het slachtoffer geen recht op deze informatie. Dit bewijsmateriaal is wel nodig voor rechtszaken.

Voorbeeld: AI bij sollicitaties

Een AI-systeem beoordeelt sollicitaties en selecteert kandidaten voor een gesprek. De data waarop het systeem is getraind bevat (onbewuste) vooroordelen, waardoor leden van een bepaalde groep veel vaker worden afgewezen. Zonder AILD is het voor de afgewezen sollicitant lastig om de aanbieder aansprakelijk te stellen, onder meer omdat het verband tussen de ‘beslissing’ van de AI en de schade (niet aangenomen worden) moeilijk te bewijzen is. Daarnaast is het voor afgewezen sollicitanten niet mogelijk om in het AI-systeem te kijken.

De AILD was een aanvulling geweest op:

  • De AI Act: stelt veiligheids- en transparantie-eisen aan AI, maar regelt niets over buitencontractuele aansprakelijkheid (het draait om naleving van regels, niet om schadevergoeding).
  • De nieuwe Productaansprakelijkheidsrichtlijn (PLD): richt zich op lichamelijke of zaakschade door defecte producten. Software en AI vallen hieronder, maar bijvoorbeeld puur financiële schade of discriminatie zijn (nog) niet gedekt.
  • Nationale regels voor onrechtmatige daad: kunnen heel verschillend zijn per land en vereisen vaak een lastig te bewijzen oorzakelijk verband (causaliteit) tussen de werking of bouw van het AI-systeem en schade.

Wat missen we zonder de AILD?

Door de AILD nu zonder vervangend plan te schrappen, blijven er gaten achter in de nationale aansprakelijkheidsregimes. De AI Act en nieuwe PLD gingen immers uit van de AILD.

Stel dat een AI-systeem met hoog risico op zich prima functioneert, maar de aanbieder negeert belangrijke verplichtingen uit de AI Act (bijvoorbeeld geen menselijk toezicht, geen check op vooringenomenheid in de data of geen logging). Is dat systeem dan echt ‘defect’ volgens de nieuwe PLD? En hoe zit het bij zuiver financiële schade (bijvoorbeeld een onterecht geweigerde uitkering) of reputatieschade? Die vallen hoe dan ook niet onder de nieuwe PLD. En slachtoffers hebben geen recht om de documentatie op te vragen, dus kunnen niet bewijzen dat deze gebrekkig of niet-bestaand is. Hetgeen wel nodig is om van een onrechtmatige daad te kunnen spreken.

Naast de bovengenoemde gaten in aansprakelijkheidsregimes, concludeerde een studie van het Europees Parlement in september vorig jaar al dat een uniforme aanpak voor AI-aansprakelijkheid absoluut noodzakelijk was. Het gebrek daaraan vergroot de kans op rechtsonzekerheid en mogelijke rechtsongelijkheid tussen de verschillende EU-lidstaten.

Vergelijking: de auto die prima rijdt, maar onveilig is gemaakt

Denk aan een auto met een motor en remmen die naar behoren werken. Technisch gezien lijkt er niets mis. Maar stel dat de fabrikant de auto heeft gebouwd zonder enige veiligheidskeuring of zonder verplichte gordels. Zolang de auto nog rijdt en de remmen niet falen, is het alleen maar een defect product omdat dat wettelijk zo geregeld is. Bij lichamelijke schade na een ongeluk doordat er geen gordels in zitten, is de fabrikant dan aansprakelijk.

Bij hoog-risico AI kan het net zo gaan: het systeem kan doen wat de aanbieder bedoelde, maar als er nooit controle is geweest op discriminatie, logging of menselijk toezicht, kunnen er wél grote risico’s zijn. Wie is dan aansprakelijk voor de schade die (misschien pas later) ontstaat? Dat is niet wettelijk bepaald zolang er geen AILD of vergelijkbare wet is.

Waarom (voorlopig) geen AILD?

Volgens de EC is er geen zicht meer op een akkoord: in het Europees Parlement liep de kritiek op de AILD uiteen van ‘te vergaand’ tot ‘niet ver genoeg’, lidstaten (onder leiding van Frankrijk) verzetten zich en ook enkele EU-Commissarissen waren tegen. Het voorstel bleek daardoor onhoudbaar. De kritiek op het voorstel van de Verenigde Staten vanuit JD Vance kwam mogelijk net te laat, maar kan ook een rol gespeeld hebben.

Toch is de kans groot dat de EC met een nieuw voorstel of een andere aanpak komt, want de problemen die de AILD moest oplossen, bestaan nog steeds. Dat is de EC nu aan het inventariseren. Zo zou een verordening (vergelijkbaar met de AI Act) direct in alle lidstaten van kracht worden, wat zorgt voor duidelijkere en snellere regels.

Mankementen van de AILD

  • Beperking tot AI-systemen: wat als andere geavanceerde software, die niet binnen de definitie van AI-systeem (art. 3(1) AI Act valt, voor schade zorgt die niet door de PLD gedekt wordt?
  • Geen risicoaansprakelijkheid: in sommige gevallen kan de wetgever bepalen dat iemand altijd aansprakelijk is voor geleden schade, ook als er geen sprake is van een fout of schuld. Zo ver ging de AILD niet.
  • Richtlijn vs. verordening: nationale implementatie van een richtlijn kan (in de toekomst) leiden tot verschillen tussen landen, waardoor het niet echt uniform is. Daarom is de Algemene verordening gegevensbescherming ook in de plaats gekomen van de Databeschermingsrichtlijn.

Wat nu?

Aangezien de AI Act en de nieuwe PLD juist zijn ontworpen met het idee dat er ook een AILD zou komen, zit de EU nu in een vacuüm. Er is behoefte aan duidelijke EU-regels, vooral als AI-toepassingen steeds belangrijker worden in banen, verzekeringen, overheidsbeslissingen en andere alledaagse situaties.

De vraag blijft hoe de Commissie de opengelaten gaten gaat dichten. Drie mogelijke toekomstscenario’s staan hieronder.

Concrete toekomstscenario’s

  • Scenario 1: Verordening
    De EC komt met een verordening die, net als de AI Act, rechtstreeks toepasselijk is in alle lidstaten. Dat geeft duidelijke, uniforme regels over AI-aansprakelijkheid.
  • Scenario 2: Nieuw richtlijnvoorstel
    De EC komt alsnog met een aangepaste vorm van de AILD. Mogelijk met uitgebreidere definities, risicoaansprakelijkheid of een breder toepassingsgebied dan het vorige voorstel.
  • Scenario 3: Nationale initiatieven
    Zonder EU-richtlijn of -verordening kunnen landen zelf wetten maken. Dit kan tot versnippering leiden, maar soms kunnen nationale regels vooruitlopen op Europese wetgeving.

Het laat zich moeilijk voorspellen welk scenario het meest aannemelijk is. Maar het is wel duidelijk dat het intrekken van de AILD een kloof achterlaat in het aansprakelijkheidsrecht voor AI.

Tips voor niet-juristen

  • Probeer zoveel mogelijk duidelijk te hebben hoe een AI-systeem beslissingen neemt en wie daarvoor verantwoordelijk is. Er is een risico dat je met lege handen komt te staan als je die duidelijkheid niet hebt en er schade ontstaat.
  • Vraag je altijd af wat er gebeurt als het systeem ‘faalt’ of foutieve beslissingen neemt. Welke rechten heb je dan, en bij wie moet en kan je aankloppen voor schadevergoeding?
  • Bij twijfel, laat een jurist meekijken.

Hulp nodig bij verantwoord gebruik van AI? Wij kunnen je helpen! Ontdek op onze website hoe we jouw organisatie kunnen ondersteunen.

Meer informatie

Terug naar overzicht