Het is beslist op 9 december: de AI Act gaat er komen, dat staat vast. Deze wet, die als eerste ter wereld strenge regels oplegt aan het gebruik van algoritmen, zelfsturende systemen en robots, zal een aanzienlijke impact hebben. In het licht van de aankomende veranderingen, besteden we in deze reeks aandacht aan de belangrijkste punten om nu reeds in overweging te nemen. Vandaag: Wanneer valt mijn AI-systeem buiten de AI Act?
In onze eerste blog haalden we al de definitie uit de AI Act aan: een autonoom systeem dat gebaseerd op input van buitenaf een uitvoer genereert (zoals een besluit, aanbeveling, tekst of afbeelding), waarbij die uitvoer direct invloed heeft op de omgeving. De gebruikte technologie – neurale netwerken, machine learning, statistiek, expertsystemen of zelfs maar een Excelfilter – is in daarbij irrelevant.
Deze definitie is heel breed, en staat verder los van de discussie of de toepassing verboden, hoog risico of laag risico is. Voor onderzoekers en opensource-ontwikkelaars is deze brede scope dan ook reden tot zorg: zou hun niet commerciële of maatschappelijk nut beogende activiteiten rond AI dan ineens net zo streng gereguleerd worden als een medische robot of een zelfrijdende auto?
De AI Act kent geen expliciete uitzondering voor wetenschappelijk onderzoek, of voor zaken als kunst en literatuur. Indirect zijn deze belangrijke maatschappelijke gebieden wel beschermd, omdat de AI Act uitgaat van een risicogebonden benadering. Zoals je in de blog over hoog risico AI kon lezen, benoemt de AI Act specifieke gebieden waar die risico’s zich kunnen manifesteren. Wetenschappelijk onderzoek of kunst en literatuur zullen niet snel aan die gebieden raken.
Onderzoek dat dicht tegen productontwikkeling aankomt, kan wél tellen als hoog risico. Denk aan onderzoek naar AI dat biometrie op afstand wil vervolmaken, of de effectiviteit van onbewuste boodschappen (subliminal messaging) wil vergroten. De enige ‘redding’ voor zulk onderzoek zou dan zijn dat hier nog geen product is dat op de markt komt, zodat de AI Act er nog niet op van toepassing is.
Een ander instrument waar onderzoek en open ontwikkeling van kan profiteren is de regulatory sandbox, een term waar niet echt een Nederlandse vertaling voor is (“maatwerk voor innovatie” wordt soms gebruikt). Een sandbox is een maatwerkregeling vanuit de toezichthouder voor nieuwe, specifieke innovatieve toepassingen die nadrukkelijk nog geen product zijn. Dit geldt zowel voor bedrijven als onderzoeksinstellingen.
In de maatwerkregeling worden afspraken gemaakt waarmee de normale regels tijdelijk niet gelden, omdat er andere waarborgen zijn getroffen. Testgebruikers zouden bijvoorbeeld met een ondubbelzinnige expliciete opt-in mee kunnen doen, waarna het toegestaan kan worden om ze onbewust te manipuleren om te onderzoeken hoe effectief dat is. De toezichthouders moeten hier binnen een jaar nadere regels over maken.
Een andere vorm van onderzoek en ontwikkeling is de opensourcegemeenschap, die al bijna 50 jaar de software voortbrengt waarmee zo ongeveer alle apparaten en diensten vandaag de dag functioneren. In deze gemeenschap gaat het om publiceren en samenwerken, niet om geheim houden en concurrentievoordeel halen.
Een opensource AI is een AI waarvan de softwarebroncode en de modelparameters publiek bekend zijn met een licentie die hergebruik door iedereen toestaat. Vergelijk de licenties voor software zoals Linux (Android), de Apache webserver of de Firefox webbrowser. Dergelijke AI’s worden in principe uitgesloten van de AI Act, tenzij ze inherent een hoog risico met zich meebrengen door de aard van hun systeem.
Welke vragen over de AI Act hebben jullie? We horen ze graag voor een vervolg!
Om als professional in te kunnen spelen op de AI Act is het belangrijk om goed voorbereid te zijn. Onze AI-opleidingen bieden essentiële kennis, waarbij we de balans onderzoeken tussen ethiek, innovatie en wetgeving. Kies de opleiding die het beste bij jou past!
Meld je nu aan voor één van de nieuwsbrieven van ICTRecht en blijf op de hoogte van onderwerpen zoals AI, contracteren, informatiebeveiliging, e-commerce, privacy, zorg & ICT en overheid.