Triloogonderhandelingen AI Act update

Coauteur: Program Manager AI Machiel Takens


Tijdens de triloogonderhandelingen is een zekere spanning te beproeven tussen de grenzen die de innovatieve wereld van AI kan en mag bieden. Terwijl het Europees Parlement een stringente aanpak probeert aan te houden bij de AI Act door een volledig verbod op biometrische surveillance, emotieherkenning en predictive policing toe te passen, pleiten de Europese Commissie en de Europese Raad voor ruimere bevoegdheden en uitzonderingen.

Onderwerpen

De Europese Commissie en de Europese Raad vertegenwoordigen hierbij de kant van innovatie en stellen de bevordering van AI centraal. Daar tegenover staat het Europees Parlement dat de risico’s van deze technologie in het oog houdt. De opkomst van generatieve AI, zoals ChatGPT, is een voorbeeld van innovatie die de AI Act heeft ingehaald en zou als twistpunt kunnen leiden tot vertraging van de invoering van de AI Act. De onderwerpen die tijdens de triloog aan bod zijn gekomen zijn onder andere handhaving van de AI-act, de invulling van de risico-classificaties en de voorwaarden voor generatieve AI.

Het Europees Parlement en de Europese Raad zijn er nog niet over uit hoe de handhaving exact zal plaatsvinden en wat voor soort boeteclausules zullen gelden. Wat wel vaststaat is, dat elke lidstaat een AI-autoriteit zal aanwijzen die verantwoordelijk is voor de beoordeling, aanwijzing en aanmelding van conformiteitsbeoordelingsinstanties (CBI’s). Er komt ook een verplichte CE-markering die duidelijk moet maken dat een AI-systeem een EU-conformiteitsverklaring heeft. Er komt een EU-databank, waarin AI-modellen geregistreerd worden. Bovendien zal om toezicht op de lidstaten te houden er een EU AI office komen.

De risico-classificatie is tevens het onderwerp van discussie. Onaanvaardbare risico’s zijn bijvoorbeeld; cognitieve gedragsmanipulatie, sociale scoring en biometrische systemen ter identificatie van personen, zoals gezichtsherkenning. Uitzonderingen zijn mogelijk, bijvoorbeeld bij ernstige misdrijven waarbij achteraf beelden worden geraadpleegd met toestemming van de rechter. De Europese Raad wenst niet af te wijken van het conceptvoorstel van de Europese Commissie voor vrijstellingen voor nationale veiligheid in het kader van real-time biometrische gezichtsherkenningstechnologie, terwijl het Europees Parlement pleit voor een strenger beleid.

Lacune foundation models

De grootste onenigheid lijkt wel te heersen over foundation models. Foundation models zijn een vorm van generatieve AI, en zijn vooraf getrainde modellen die grote hoeveelheden aan data bevatten. Ze zijn erg gebruikersvriendelijk voor organisaties en particulieren omdat ze heel snel te transformeren zijn in een op maat gemaakt AI-model. Foundation models werken met verschillende datatypen, bijvoorbeeld beeld, tekst, spraak en numerieke data die op verschillende manieren verwerkt kan worden. Ze zijn daarmee volledig toe te spitsen op de dienstverlening van een specifiek bedrijf. Dit maakt het gebruik erg aantrekkelijk.

DIGITALEUROPE – een Europese branchevereniging, met ruim honderd grote technologiebedrijven en de Nederlandse verenigingen NLdigital en FIAR als leden - heeft een rapport (position papers) uitgebracht als reactie op de triloogonderhandelingen. Zij stelt in het rapport dat foundation models zich nog in de beginfase van de ontwikkeling bevinden en dat veel bedrijven niet in staat zullen zijn aan de uitdagende eisen van de AI Act te voldoen. Er is namelijk geen open-source vrijstelling voor foundation models, zoals het geval is voor AI-modellen die voor onderzoek en ontwikkeling worden ingezet, die zijn vrijgesteld van naleving van de AI Act. Volgens het rapport zullen bedrijven zich daardoor terughoudend opstellen met het beschikbaar stellen van AI-modellen, omdat niet alle risico’s van een model te voorzien zijn. Op het moment dat er een customized foundation model wordt gemaakt door een ondernemer, zal het risico veranderen door de specifieke inrichting van het model. Desalniettemin blijft de modelontwikkelaar verantwoordelijk voor het verdere gebruik. De potentiële aansprakelijkheidsstelling van modelontwikkelaars onder de AI Act zal ertoe leiden dat AI-modellen minder beschikbaar worden gesteld voor het publiek en deze modellen zullen daardoor beperkt toegankelijk blijven tot een niche van bedrijven.  Dat zal de innovatie, veiligheid en transparantie niet verbeteren van deze modellen.

Europese ondernemers hebben dit punt eveneens benoemd in een publieke verklaring, waarin ze stellen dat de lacune aan regelgeving over foundation models in de AI Act gevaar inhoudt en innovatie tegenhoudt. Deze stakeholders stellen dat het onredelijk is om de verantwoordelijkheid van het gebruik van foundation models op microniveau toe te bedelen, terwijl de AI Act er is om juist deze vraagstukken op te vangen.

Amendement

Als reactie op de huidige ontwikkelingen is open-source geadresseerd door het Europees Parlement, maar worden foundation models niet vrijgesteld van de AI Act. Het Europees Parlement stelt hiermee de grondrechten van burgers voorop en heeft als reactie de amendementen 101, 102 en 399 ingediend waarin de complexiteit en impact van foundation models worden benoemd. 

In amendement 101 wordt gesteld dat de AI Act een eerlijke verdeling van verantwoordelijkheden waarborgt. Mede door een gebrek aan controle van de downstream AI aanbieder over de verdere ontwikkeling van foundation models vloeit daar machtsongelijkheid uit voort. Daarom is in amendement 399 (nieuw voorgesteld art. 28b van de AI Act) gesteld dat een foundation model dat gratis, open source of als dienst wordt aangeboden moet voldoen aan de wettelijke vereisten van art. 28b van de AI Act. Deze vereisten omvatten aspecten zoals het modelontwerp, de kwaliteit van de gebruikte datasets, de verplichte evaluatie van het model, het nastreven van duurzaamheid en efficiëntie, en de opstelling van gedetailleerde technische documentatie en gebruikersinstructies voordat deze modellen aan derden kunnen worden verstrekt. Daarnaast moeten deze modellen voldoen aan de transparantie- en registratievoorschriften die in de AI Act zijn vastgelegd.

Het Europees Parlement wil de regels voor grote foundation modellen aanscherpen, bijvoorbeeld door ze te classificeren op basis van gebruikersaantallen of hun complexiteit, zoals bijvoorbeeld het geval is bij modellen zoals ChatGPT. Er zijn ook aanbevelingen van EU-voorzitter Spanje om regelmatige audits uit te voeren om eventuele zwakke punten te identificeren. Aan de andere kant beweren tegenstanders dat zelfs kleinere modellen vergelijkbare of zelfs grotere risico's kunnen opleveren. Als er geen consensus wordt bereikt, bestaat de mogelijkheid dat de onderhandelingen worden uitgesteld tot het volgende jaar.

Conclusie

Kortom, de nadere uitwerking van de bepalingen over de handhaving, biometrische gezichtsherkenning, en met name de regulering van foundation modellen vormen de kern van de laatste triloogonderhandelingen. Het is duidelijk dat eerst een nadere uitwerking dient plaats te vinden om consensus te bereiken over de uiteindelijke implementatie van de AI Act. Er is een duidelijke noodzaak aan expliciete normen en richtlijnen, alsmede aan transparantie daarover. De AI-regulering in de Europese Unie bevindt zich in een cruciale fase, waarin de balans moet worden gevonden tussen innovatie en risicobeheersing. 


Meer leren over AI?

Volg dan de Opleiding tot AI Compliance Officer (CAICO) van ICTRecht Academy. Januari is inmiddels volgeboekt, maar er starten nieuwe rondes in maart en mei 2024. Wacht niet te lang en schrijf je snel in!

Bekijk de opleiding

Terug naar overzicht