De triloogonderhandelingen over de EU-regelgeving inzake de AI Act werden in november 2023 abrupt beëindigd. Toonaangevende EU-landen hadden verzocht om strikte regulering voor basismodellen in te trekken. Daartegenover waarschuwden verschillende partijen voor de lobby en geprivilegieerde toegang tot politieke macht van Big Tech.
CEO's van grote Europese bedrijven zoals Airbus, maar ook de Franse AI-ontwikkelaar Mistral AI hebben kritiek geuit op de benadering van het Europees Parlement ten aanzien van het reguleren van basismodellen. Ze waarschuwen dat een strenge benadering technische innovatie en competitiviteit belemmert en dat deze juist het algemeen belang dienen. Onder druk van deze lobby pleitten Duitsland, Frankrijk en Italië, voor een systeem van zelfregulering voor basismodellen zonder enige vorm van handhaving.
Het voorstel van de ontwikkelaars van basismodellen om slechts gedragscodes te hanteren voor AI zou geen belemmering voor innovatie vormen. Dit werd onderstreept door een Europese branchevereniging in de position papers als reactie op de triloogonderhandelingen. Daarin werd gesteld dat veel bedrijven niet in staat zullen zijn te voldoen aan de uitdagende eisen van de AI Act. Er is ook volgens de laatste updates een semi-open-source vrijstelling voor basismodellen. De modelontwikkelaar blijft primair verantwoordelijk voor het verdere gebruik. De potentiële aansprakelijkheidsstelling van modelontwikkelaars onder de AI Act zou ertoe kunnen leiden dat deze modellen beperkt blijven tot de Big Tech bedrijven. Dat zou de innovatie, veiligheid en transparantie niet verbeteren van deze modellen. Een open-source basismodel is volgens de laatste versie alleen vrijgesteld van verplichtingen onder de AI Act indien het model geen systemisch risico bevat.
Daarentegen is het algemeen belang in de laatste versie benadrukt. De ontwikkeling en regulering van AI moet in lijn zijn met de kernwaarden van de Europese Unie, de fundamentele rechten en vrijheden zoals vastgelegd in verscheidene verdragen. AI moet dienen als een op de mens gerichte technologie, waarbij het hoofddoel is om het menselijk welzijn te vergroten en te voorkomen dat er afbreuk wordt gedaan aan de grondrechten van burgers en daarmee de rechtsstaat. Daarom wordt er specifieke aandacht besteed aan de bescherming van publieke belangen, zoals gezondheid, veiligheid en grondrechten inzake basismodellen.
Deze zorgen zijn ondervangen in de laatste versie. Als er namelijk een fout in het basismodel zit, kan dit gevolgen hebben voor alle downstream afnemers. Daarom gelden er strengere verplichtingen voor modelontwikkelaars van basismodellen. Volgens de nieuwe laatste versie krijgen aanbieders van AI-modellen (60e) een belangrijke rol toegewezen. Omdat deze modellen de basis kunnen vormen voor downstream-modellen, moeten transparantiemaatregelen worden genomen. Een greep van deze maatregelen zijn het opstellen en up-to-date houden van (technische) documentatie, die beschikbaar moet zijn voor het Europees bureau en nationale bevoegde autoriteiten. Deze zijn in de bijlagen XY en XX omschreven. De implementatie van een AI-systeem moet gepaard gaan met instructies voor menselijk gebruik. Degenen die belast zijn met het formuleren van deze instructies moeten de nodige AI-kennis en competenties hebben door minimaal een training te volgen om de taken naar behoren kunnen uitvoeren. Ook moeten de implementeerders de risico’s van het AI-systeem identificeren die niet in de ontwikkelingsfase maar bij het eindgebruik duidelijk worden.
Implementeerders van AI-systemen met een hoog risico zoals vermeld in Bijlage III spelen ook een cruciale rol bij het informeren van natuurlijke personen dat zij onderhevig zijn aan het gebruik van het AI-systeem met een hoog risico. Deze informatie moet de beoogde doelstelling en het type beslissingen dat het neemt, bevatten. De implementeerder moet de betrokkene ook informeren over zijn rechten. Volgens de AI Act moet ook duidelijk zijn dat de verplichtingen voor de aanbieders van basismodellen van toepassing zijn zodra deze op de markt zijn gebracht. Ook wanneer de aanbieder een eigen model integreert in een eigen AI-systeem wordt dat beschouwd als op de markt aanbieden of in gebruik nemen. Dit beklemtoont een strengere aanpak van aanbieders.
Het Europees bureau, een toezichthoudend orgaan dat binnen de Europese Commissie zal worden opgericht, zal een sleutelrol spelen bij de handhaving. Het Europees bureau zal de handhaving ten dele toekennen aan de nationale autoriteiten. Het bureau krijgt echter de gehele verantwoordelijkheid voor de ontwikkeling en het gebruik van basismodellen. Het moet naleving van de AI Act coördineren en inbreuken onderzoeken. Het Europees bureau zal een leidende rol hebben in het beoordelen en evalueren van basismodellen.
De Europese Commissie heeft verschillende stappen aangekondigd om innovatie te bevorderen. Er is de Euro High Performance Computing (EuroHPC)-verordening voorgesteld om AI-fabrieken op te zetten om AI-systemen te verbeteren. Met deze subsidie wordt beoogd een stimulans te geven aan het ontwikkelen van nieuwe toepassingen op het gebied van High-performance computing (HPC). Dit zou de ontwikkeling van grote General Purpose AI-modellen mogelijk maken en de toegang tot deze supercomputers vergemakkelijken voor zowel publieke als private gebruikers. Daarnaast wordt een AI-bureau opgericht binnen de Commissie om het Europese AI-beleid te ontwikkelen en te coördineren, met financiële steun voor AI-startups via Horizon Europe en het programma DIGITALEUROPE.
De impasse is doorbroken en de AI Act laat volgens de laatste versie basismodellen niet ongereguleerd. Daarmee is Big Tech niet geslaagd om regulering te voorkomen. Basismodellen worden gereguleerd, er is geen open-source vrijstelling voor basismodellen die systemische risico’s bevatten. Het Europees bureau is belast met de handhaving. Dit impliceert dat Europa de touwtjes in handen heeft en niet los wenst te laten. Er is geen gebrek aan regulering en handhaving, wat de zorgen van Big Tech over het uitblijven van innovatie zal versterken. De vraag is of de Europese maatregelen voldoende zijn om dit tegen te houden of juist om de innovatie te bevorderen. Wat echter wel duidelijk is, is dat de AI Act niet slechts een symbolische wet wordt zonder daadwerkelijke impact of toezichtsmechanismen. Niettemin zal de effectiviteit van de AI Act en de handhaving in de praktijk nog moeten blijken.
Meld je nu aan voor één van de nieuwsbrieven van ICTRecht en blijf op de hoogte van onderwerpen zoals AI, contracteren, informatiebeveiliging, e-commerce, privacy, zorg & ICT en overheid.