Implementatiekader AI: Een gids voor verantwoord gebruik van AI

In het doolhof van richtlijnen en opvattingen over Artificial Intelligence (AI), zijn de bestaande voorschriften nu samengevat in een handig implementatiekader voor AI-toepassingen. Gebruik van AI biedt namelijk mooie kansen om maatschappelijke problemen aan te pakken. Zo kunnen overheidsinstanties met behulp van AI bijvoorbeeld vroegtijdig problematische schulden identificeren, fraude opsporen en een dieper inzicht verkrijgen in de patronen en structuren van georganiseerde misdaad.

Implementatiekader Verantwoorde Inzet van Algoritmen (IKA). Voor wie, wat staat er in en waarom is het opgezet? 

Maar naast de opwinding over de mogelijkheden bestaat er ook bezorgdheid over de gevolgen ervan. Om deze uitdagingen het hoofd te bieden, is een “Implementatiekader Verantwoorde Inzet van Algoritmen” (IKA) opgesteld. Voor wie geldt dit kader? Wat staat erin? En waarvoor wordt het gebruikt? Tijd voor een korte rondleiding door het IKA.

Voor wie?

Het IKA is opgesteld door het Ministerie van Binnenlandse Zaken en is bedoeld voor overheidsinstanties. Het richt zich vooral tot de mensen die betrokken zijn bij de ontwikkeling, implementatie, toetsing en verantwoording van algoritmen. Aan de hand van het IKA kunnen zij de systemen zij willen gebruiken, toetsen op rechtmatigheid. Het kader moet dus gaan helpen bij een gestructureerde aanpak voor het beoordelen, ontwikkelen en implementeren van AI-systemen binnen de overheid.

Wat staat er in?

De afgelopen jaren zijn er al verschillende handige hulpmiddelen ontworpen om AI-toepassingen te beoordelen. Denk aan de ‘Impact Assessment Artificial Intelligence’ de ‘Ethics guidelines for trustworthy AI’, maar bijvoorbeeld ook de ‘Handreiking non-discriminatie by design’ en het toetsingskader ‘Discriminatie door risicoprofielen, een mensenrechtelijk Toetsingskader’. Met het IKA wil de overheid nu de belangrijkste hulpmiddelen bundelen.

Het kader is echter geen simpele checklist; het is eerder een gids. Het biedt een aanpak die organisaties en overheden kunnen gebruiken om de implementatie van AI op een verantwoorde en effectieve manier te begeleiden. Het geeft een overzicht van de cruciale normen en maatregelen die ook onder de AI Act zullen vallen. Deze worden samengevat in zeven kernthema's:

  1. Menselijke controle en toezicht
  2. Technische robuustheid en veiligheid
  3. Privacy en data governance
  4. Transparantie
  5. Diversiteit, non-discriminatie en rechtvaardigheid
  6. Maatschappelijk en milieuwelzijn
  7. Verantwoording

Aan de hand van deze thema’s worden de bestaande normen, risico’s en voorgestelde maatregelen besproken. Daarnaast wordt aandacht besteed aan de bijbehorende governance. De organisatorische aspecten van algoritme-inzet komen daarom ook aan bod, zoals bewustzijn, bedrijfscultuur en mogelijkheden voor ethische reflectie.

Waar(om) is het opgezet?

Het is de bedoeling dat overheden die AI willen gaan toepassen in een vroeg stadium het implementatiekader erbij pakken. Op die manier wordt ervoor gezorgd dat de positieve gevolgen van de AI-toepassing benut kunnen worden, zonder daarbij de rechten van de betrokkenen te schaden.

Het implementatiekader zal uiteraard regelmatig (moeten) worden bijgewerkt. Een vernieuwde versie, inclusief best practices, zal waarschijnlijk begin 2024 beschikbaar worden. Zodra de AI Act definitief is vastgesteld, zullen de toepasselijke verplichtingen daaruit ook worden geïntegreerd in het IKA.

Kortom, het Implementatiekader voor verantwoorde inzet AI belooft een waardevol hulpmiddel te worden voor overheidsinstanties die AI willen inzetten voor publieke taken. Het is bedoeld als een levend document dat regelmatig zal worden bijgewerkt om steeds aan de nieuwste ontwikkelingen en regelgeving – denk aan de AI Act – te voldoen.


Meer leren over AI en de aankomende AI ACT?

Bekijk het opleidingsaanbod

Terug naar overzicht