Regulering van AI-systemen is een belangrijk onderdeel van de plannen van de Europese Unie voor een digitale maatschappij.
Het ambitieuze plan van de Europese Unie voor een digitaal decennium (digital decade) gaat over een visie op een digitale maatschappij met een menselijke maat.
Slimme camera’s bij de Olympische Spelen of een uit de bocht gevlogen chatbot van Elon Musk: AI is overal om ons heen. En nu is er eindelijk een wettelijk kader om deze snelle technologische ontwikkelingen in goede banen te leiden. Zo is op 1 augustus de AI Act in werking getreden, het eerste alomvattende rechtskader wereldwijd dat betrouwbare AI moet bevorderen. Maar wanneer val je hier eigenlijk onder?
De AI Act richt zich op AI-systemen, maar wat wordt daarmee bedoeld? Kort gezegd is het een systeem dat met een bepaalde autonomie handelingen uitvoert. Maar autonomie alleen is niet voldoende, ook moet sprake zijn van inference ofwel afleiding. Het systeem moet bepaalde doelen zijn gesteld en zelfstandig uitzoeken hoe binnen deze doelen uitvoer te genereren. Dat klinkt allemaal mooi op papier, maar wat zijn dan voorbeelden van AI en wat niet? Laten we kijken naar wat praktijkvoorbeelden.
Tegenwoordig gebruiken veel bedrijven een chatbot voor hun klantenservice. Het kan heel handig zijn: je hoeft niet in de wacht te staan tot er een persoon beschikbaar is. Maar valt zo’n chatbot onder de definitie van een AI-systeem? Natuurlijke taalverwerking wordt gebruikt om vragen van klanten te begrijpen en zo goed mogelijk te beantwoorden. Het antwoord is “ja, dit is een AI-systeem”. De tool werkt autonoom en genereert output om de klant te helpen. Autonomie is hierin belangrijk. Als een chatbot alleen werkt op basis van een vooraf geprogrammeerde vaste set aan regels en niet zelf na hoeft te denken, is het géén AI-systeem.
Laten we kijken naar een voorbeeld daarvan: een online kledingmaat-tool. Zo’n tool die je helpt met kiezen van de juiste maat voor een specifiek kledingstuk, is dat dan ook een AI-systeem? Wanneer je alleen afmetingen invoert om vervolgens een vooraf daaraan gekoppelde maat als advies te krijgen, dan niet. Dit is een als-dan-constructie: als A+B wordt ingevoerd, dan is C het antwoord. Er is geen sprake van autonomie. Dat wordt anders wanneer je voor de camera een analyse laat maken van je postuur en het systeem de analyse beoordeelt en een maat adviseert.
Hoe zit het dan met een online tool die reclamebanners genereert op basis van de productencatalogus van een webshop? De advertentiebanner wordt toegespitst op de klant, bijvoorbeeld op grond van eerder(e) surfgedrag en aankopen. Dit is, niet verrassend, ook een AI-systeem. Op basis van de productencatalogus creëert de tool namelijk zelfstandig output om zo aandacht van specifieke klanten te trekken.
Niet elk AI-systeem is even spannend en brengt dezelfde risico’s met zich mee. De AI Act houdt hier rekening mee en onderscheidt verschillende risiconiveaus: onacceptabel, hoog en laag.
Hoe zit het bijvoorbeeld met ChatGPT of bijvoorbeeld Copilot? In welke categorie vallen die? Het mooie juridische antwoord is dat het afhangt van de situatie. Zet je ChatGPT in als eenvoudige chatbot voor je klantenservice, dan is het geen verboden of hoog-risico AI. Ga je ChatGPT zo inzetten dat het beoordeelt of je die sollicitant wel of niet gaat aannemen? Dan is het een hoog-risico systeem geworden.
Wanneer duidelijk is dat het gaat om een AI-systeem en welke risicoklasse daarbij hoort, kan worden bepaald welke verplichtingen van toepassing zijn. Niet elke verplichting geldt voor iedereen; de AI Act kent verschillende rollen en die verschillende rollen hebben weer eigen verplichtingen. Het is daarom belangrijk om te weten welke rol je hebt:
Bovengenoemde rollen hebben andere verplichtingen. Zo gelden voor laag-risico AI-systemen basisregels die voornamelijk zien op de transparantie. Bij een simpele chatbot moet de aanbieder bijvoorbeeld vermelden dat het een AI-tool betreft en niet een ‘echt’ mens. De meeste verplichtingen gaan gelden voor hoog-risico AI-systemen. Elke rol heeft verplichtingen. Dus ook wanneer je hoog-risico AI afneemt kun je niet achterover leunen. De belangrijkste verplichtingen zijn:
Kortom, systemen die een hoog risico voor ons als mens of de maatschappij met zich meebrengen mogen niet zomaar op de markt gebracht worden. Er is een behoorlijk pakket aan huiswerkverplichtingen.
Over twee jaar moet aan de regels van de AI Act worden voldaan. Of zelfs al eerder, als je met verboden AI-systemen werkt. Die moeten begin volgend jaar al uit zijn gezet. Heb je behoefte aan ondersteuning of advies? Wij helpen je graag verder!
Meld je nu aan voor één van de nieuwsbrieven van ICTRecht en blijf op de hoogte van onderwerpen zoals AI, contracteren, informatiebeveiliging, e-commerce, privacy, zorg & ICT en overheid.