De AI Act staat op het punt het landschap van kunstmatige intelligentie grondig te hervormen. Terwijl innovators en onderzoekers de grenzen van AI-technologieën verleggen, werpt deze nieuwe wetgeving een cruciale vraag op: hoe zal R&D zich ontvouwen binnen de strikte kaders van de AI Act? Laten we eens kijken naar de impact van de AI Act op onderzoek en ontwikkeling en onderzoeken hoe je kunt blijven innoveren binnen de regels van het spel.
Wie de AI Act openslaat bij artikel 2 lid 6, zal denken dat het wel meevalt: “Deze verordening is niet van toepassing op AI-systemen of AI-modellen, met inbegrip van hun output, die specifiek zijn ontwikkeld en in gebruik gesteld met wetenschappelijk onderzoek en wetenschappelijke ontwikkeling als enig doel.” Toch is het zo simpel nog niet als dat alle vormen van R&D zijn uitgezonderd.
Het probleem is namelijk dat de AI Act niet definieert wat “wetenschappelijk onderzoek en ontwikkeling” inhoudt, of wat het betekent dat je dit “als enig doel” doet versus ook bijvoorbeeld met het doel van marktintroductie er naast. Moet dit werkelijk zo beperkt worden gelezen als alleen zuivere wetenschap? Dat zou wel érg weinig onderzoekers dekken – ook bij universiteiten en onderzoeksinstellingen is valorisatie van onderzoeksresultaten toch gewenst.
Een eerste grens kan worden getrokken bij het op de markt brengen van producten of diensten. Dat is hoe dan ook het moment dat de AI Act gaat gelden (artikel 2 lid 1). Een onderzoeksresultaat publiceren in een paper, al dan niet met software in broncode, valt hier niet onder. En even verderop bepaalt de Act nog een keer dat zij niet van toepassing is op “onderzoeks-, test- of ontwikkelingsactiviteiten” zolang het nog niet gaat om producten of diensten die op de markt zijn.
Wat is dan “op de markt”? Dit is een criterium uit de al bestaande Europese regels rondom productveiligheid. Grofweg komt het neer op het zakelijk aanbieden van producten of diensten, hoewel ook gratis aanbieden (bijvoorbeeld met advertenties) er onder valt. De resultaten van wetenschappelijk onderzoek publiceren zal daar niet onder vallen. Een als experiment opgezette dienst na onverwacht succes voorzien van advertenties en zo gratis weggeven zal dat daarentegen wél doen.
Het is niet helemaal juist dat “op de markt brengen” het criterium is. Wie gaat “testen onder reële omstandigheden” zoals de wet dat noemt, moet zich wél aan de regels houden. Testen algemeen is zoals gezegd uitgezonderd (artikel 2 lid 8) maar specifiek het nabootsen van de beoogde werkelijke toepassing is wel gereguleerd.
Wat zijn “reële omstandigheden”? De definitie uit artikel 3 lid 57 is ietwat wijdlopig: “het tijdelijk testen van een AI-systeem voor zijn beoogde doel onder reële omstandigheden buiten een laboratorium of anderszins gesimuleerde omgeving teneinde betrouwbare en robuuste gegevens te verkrijgen”. Het gaat dus om een semi-compleet product (een “AI systeem”) waar je de werking van wilt beproeven en daarbij de gecontroleerde laboratorium-omgeving (of Jupyter notebook) wilt ontstijgen. Een grootschalige test, zal het meestal zijn, en zo opgezet dat het lijkt of alles echt is.
Wat zijn dan de regels voor zulk testen? Hier wordt het even complex, want het maakt dan uit of de beoogde toepassing een vorm van hoog-risico AI inhoudt. Als dat zo is (artikel 60), dan is een uitgebreid testplan noodzakelijk en moet de toezichthouder dit goedkeuren. Dit zal in de praktijk neerkomen op dat deze meekijkt of tussentijdse rapportages krijgt over voortgang, bevindingen en vooral negatieve incidenten. Proefpersonen (als je die nodig hebt) moeten informed consent hebben gegeven, en je moet er voor zorgen dat wat er in de test gebeurt, niet écht echt gevolgen voor ze heeft.
Als het systeem geen hoog-risico AI is, dan is grofweg alleen informed consent nodig (artikel 61) van mensen die meedoen en moet je eventuele schade vergoeden of herstellen. En detail, als je AI-toepassing eigenlijk een verboden praktijk is dan mag je deze ook niet in de vorm van zo’n test inzetten.
Het doel van onderzoek is meestal ook het delen van kennis, zoals in papers, conferentiepresentaties of proefschriften. Dat is volgens de AI Act geen probleem, ook niet als je de broncode van je onderzoekssoftware er bij publiceert. Pas als je die software op de markt brengt, krijg je met de Act te maken.
Er is een tussenvorm die nieuwe vragen oproept: open source software. De Nederlandse tekst van de AI Act spreekt van “gratis en opensourcelicenties”, maar bedoelt natuurlijk vrije- en opensourcelicenties. Want open source gaat niet over prijs maar over vrijheid, de mogelijkheid hebben dat je verder gaat met andermans werk. Veel onderzoekers gebruiken open source als basis voor hun werk, of publiceren hun eigen programmeerwerk onder een open source licentie zoals de GPL, Mozilla Public License of BSD/MIT licentie.
De AI Act worstelt hier met een spagaat. Enerzijds ziet men dat open source een zeer innovatief en succesvol model is voor het ontwikkelen van software. Anderzijds zijn er vele bedrijven die bergen geld verdienen rond open source. Het zou al te gemakkelijk zijn als die bedrijven zich onder de AI Act uit konden worstelen enkel omdat de software open source is. Daarom bepaalt de wet (artikel 2 lid 12) dat open source uitgezonderd is tenzij deze een hoogrisico product vormt, een verboden praktijk realiseert of direct interacteert met eindgebruikers (artikel 50).
In de praktijk zal het verschil vooral moeten blijken uit de positionering van de partij die aangesproken wordt. Bijdragen aan een open source community zal niet leiden tot verantwoordelijk gehouden worden voor een AI Act schending. Een bedrijf dat dienstverlening levert bovenop open source software moet zich wél gewoon aan de AI Act houden. De meest logische toets lijkt mij of wat men doet, uniek is voor open source of dat men ‘gewoon’ open source in plaats van een commerciële leverancier gebruikt.
De AI Act introduceert een nieuwe reeks uitdagingen en kansen voor onderzoek en ontwikkeling binnen het veld van kunstmatige intelligentie, met zowel ruimte voor innovatie als de noodzaak van naleving. De komende twee jaar zijn beschikbaar als overgangsperiode om aan de nieuwe regels te wennen. Ik hoor graag wat jij als onderzoeker tegenkomt!
Meld je nu aan voor één van de nieuwsbrieven van ICTRecht en blijf op de hoogte van onderwerpen zoals AI, contracteren, informatiebeveiliging, e-commerce, privacy, zorg & ICT en overheid.