AI-Roadmap voor 2025

De ontwikkelingen op het gebied van AI zijn in het afgelopen jaar ook weer bijzonder snel gegaan. We hebben weer vele nieuwe AI-modellen voorbij zien komen zoals steeds grotere en krachtigere AI-taalmodellen als ChatGPT 4o, o1 en concurrerende producten van andere grote partijen. Tussen de grote techbedrijven is een flinke concurrentiestrijd losgebarsten om de meest krachtige AI-modellen neer te zetten. Daarnaast heeft AI veel nieuwe wetenschappelijke ontdekkingen mogelijk gemaakt: van het vinden van nieuwe archeologische symbolen in het landschap, het beter begrijpen van DNA; en inzicht in de manier hoe walvissen met elkaar communiceren.

Maar vooral voor ons juristen was 2024 een mijlpunt voor de regulering en beheersing van AI: de Europese AI-Act is aangenomen, gepubliceerd en (deels) in werking getreden. Deze ontwikkeling vormt het slot van een lang proces om tot regels te komen over hoe de risico’s van AI het beste geadresseerd kunnen worden. Tegelijkertijd is dit nog maar slechts het begin van het verhaal en moet het echte werk nu beginnen. De komende jaren is het aan bedrijven en organisaties om hun AI-compliance op orde te krijgen en de AI Act te gaan implementeren.

Veel normen zijn (helaas) nog opengelaten en zullen nader moeten worden ingevuld met specifieke richtlijnen. Stukken van de AI Act gaan ook op verschillende momenten in werking. Het vele nieuws waarmee juristen iedere dag overspoeld worden, kan voor verwarring zorgen en het moeilijk maken het overzicht te bewaren. In deze blogpost geven we je een roadmap voor 2025; en op welke partijen je het beste kan letten het komende jaar zodat je op de hoogte blijft van de belangrijkste ontwikkelingen. Natuurlijk houden wij je gedurende 2025 ook op de hoogte van alle ontwikkelingen en vooral wat je nu al kan doen om compliant te worden.

De belangrijkste data voor 2025

In het komende jaar verwachten we veel richtlijnen en andere stukken die verheldering moeten geven op normen uit de AI Act. Ook zijn er een aantal data in de AI Act wanneer bepaalde stukken van de Act in werking treden; en deadlines voor Europese lidstaten om het toezicht gereed te hebben. Hieronder een overzicht van de belangrijkste momenten in 2025:

  • 2 februari 2025:
  • 2 mei 2025: Deadline voor de Europese AI-Office voor het opstellen van gedragscodes voor aanbieders van AI voor algemene doeleinden;
  • 2 augustus 2025:
    • Verplichtingen voor AI voor algemene doeleinden worden van kracht;
    • Deadline voor lidstaten om het reguleringslandschap op orde te hebben. Toezichthouders moeten zijn aangewezen en richtsnoeren rond boetes moeten zijn gepubliceerd. Het kabinet heeft al per kamerbrief aangegeven welke toezichthouders zij hiervoor waarschijnlijk willen aanwijzen; en
  • 2 augustus 2025: Organisaties die publieke taken uitvoeren hebben vanaf deze datum één jaar de tijd om hun hoog risico AI-systemen te registreren in de Europese databank. Aangeraden wordt door ons om al eerder te beginnen met het inventariseren van de aanwezige AI-systemen binnen de organisatie.

Weet welke sector jouw organisatie raakt en welke instantie toezicht houdt

De Autoriteit Persoonsgegevens (AP) heeft als uitgangspunt om het toezicht op AI zo veel mogelijk te laten aansluiten op het al bestaande toezichtlandschap. Om dit te realiseren werkt de AP samen met een groot aantal organisaties ter voorbereiding op de naleving van de AI Act. Er is een advies gepubliceerd met een overzicht welke toezichthouders verantwoordelijk moeten zijn voor het toezicht in verschillende sectoren. Hiertoe is het volgende voorstel gedaan:

  • Nederlandse Arbeidsinspectie (NLA): Deze instantie kan AI-systemen controleren die te maken hebben met machines en beschermingsmiddelen in een professionele setting. Ook zal de NLA verantwoordelijk worden voor toezicht op liften, explosiegevoelig materieel en drukapparatuur. Indien AI in deze producten wordt ingezet zal het toezicht op de naleving van de regels dus vallen op de NLA. Tevens zal de NLA, volgens het advies, toezicht moeten gaan houden op de inzet van AI op de werkvloer, of wanneer AI wordt ingezet bij overheidsbesluiten over personen.
  • Nederlandse Voedsel- en Warenautoriteit (NVWA): De NVWA zal samenwerken met de Arbeidsinspectie bij het toezicht op machines en beschermingsmiddelen. De belangrijkste rol voor de NVWA ligt echter bij de controle van (consumenten)producten zoals speelgoed en gasinstallaties.
  • Inspectie Leefomgeving en Transport (ILT): ILT zal toezien op AI-systemen die worden gebruikt in voertuigen en bijbehorende systemen. Het voorstel van de AP is dat deze organisatie ook toezicht zal gaan houden op AI-systemen die kritieke infrastructuur beschermen.
  • Rijksdienst voor Identificatie en Registratie (RDI): Naast een coördinerende rol samen met de AP krijgt de RDI ook een belangrijke sectorale toezichtfunctie voor AI-systemen die in radioapparatuur worden geïntegreerd. Tevens zal de RDI toezicht gaan houden op AI-toepassingen die biometrie gebruiken of betrokken zijn bij emotieherkenning.

Tot slot zijn er vijf toezichthouders die verantwoordelijk zijn voor meer vanzelfsprekende sectoren:

  • Inspectie Gezondheidszorg en Jeugd (IGJ): Deze inspectie dient verantwoordelijk te worden voor sectoraal en producttoezicht op medische hulpmiddelen.
  • Inspectie op het Onderwijs (Onderwijsinspectie): Deze inspectie krijgt de verantwoordelijkheid voor sectoraal toezicht wanneer AI-systemen worden ingezet binnen het onderwijs voor het beoordelen van scholieren en studenten.
  • De Nederlandsche Bank (DNB) en de Autoriteit Financiële Markten (AFM): Samen zullen de DNB en AFM sectoraal toezicht gaan houden op AI-systemen die worden ingezet voor het beoordelen van kredietwaardigheid van personen en het vaststellen van premies bij zorg- en levensverzekeringen.
  • Inspectie Justitie en Veiligheid (IJenV): In samenwerking met de AP zal de IJenV toezicht gaan houden op AI-systemen die worden ingezet binnen de rechtshandhavingsketen, voor asiel, migratie en grensbewaking.

Wij raden aan de voor jou relevante markttoezichthouder in de gaten te houden voor sectorale richtlijnen die eventueel op jou van toepassing kunnen zijn. Zeker tegen het einde van 2025 verwachten wij veel stukken van de sectorale markttoezichthouders naarmate zij als dusdanig zijn geïnstalleerd.

Vind de al reeds beschikbare informatie

Wees je er vooral van bewust dat er al heel veel informatie beschikbaar is. Staar je vooral niet blind op de grote hoeveelheid informatie die er nog moet komen: ook nu kan je al beginnen met je AI-compliance traject aan de hand van dat wat je al op het internet kan vinden. Twijfelt je bedrijf of organisatie of zij misschien AI moeten gaan ontwikkelen? Neem dan eens een kijkje bij de publicaties van TNO over AI. Zij bieden goede aanknopingspunten om een start te kunnen maken in je ontwikkeltraject. Kijk daarbij ook bijvoorbeeld naar het Rathenau Instituut en hun dossier over digitalisering.

Verlies daarbij ook vooral niet de ethiek uit het zicht. Het uitgangspunt van de AI Act is dat ieder AI-systeem wettig, robuust en ethisch is. Tegelijkertijd is dit natuurlijk niet de makkelijkste opgave. Dus hoe kan je hier het beste een begin mee maken? Kijk hiervoor vooral naar de Toolbox Ethische Verantwoorde Innovatie van de Rijksoverheid die je hiermee een start kan geven.

ICTRecht in 2025

Ook wij gaan weer het komende jaar veel voor jullie schrijven over AI en de ontwikkelingen die er plaatsvinden, dus volg vooral ook onze experts via onze nieuwsbrief, blogpagina en op LinkedIn.

Wil je direct weten wat je nu al kan doen om AI Act Compliant te worden? Voel je dan vooral vrij om met ons contact op te nemen. Wij helpen je met een inventarisatie van je AI-systemen en gegevensstromen, een compliance scan, beleidsdocumenten, of een op maat gemaakt advies voor grote en kleine AI-vraagstukken. Voor alle fases van AI-compliance ben je bij ons thuis.

Meer informatie

Terug naar overzicht