Om een verantwoorde en rechtvaardige inzet van AI te bevorderen verplicht de AI Act (art. 27) een Fundamental Rights Impact Assessment (FRIA). De FRIA is voor de bescherming van mensen een belangrijk onderdeel van de AI Act. Met de FRIA kun je de impact op fundamentele rechten van de betrokken mensen beoordelen en voor jouw organisatie passende beheersmaatregelen bedenken.
Dit is de tweede blog in een reeks, waarin we de uitdagingen op het gebied van legal en compliance, en de aanpak van ICTRecht met behulp van onze AI-toolkit bespreken. In de eerste blog heeft mijn collega Machiel het e.e.a. vertelt over de eerste stappen die je kan zetten als je organisatie gaat beginnen met AI. In deze tweede blog ga ik dieper in op de FRIA. Aan het einde van de blog vind je onze gratis FRIA-template!
Om de fundamentele rechten van de burgers te beschermen is uitvoeren van een FRIA verplicht voor bepaalde gebruiksverantwoordelijken van hoog risico AI-systemen. Denk hierbij aan:
De FRIA moet uitgevoerd worden voordat het systeem in gebruik wordt genomen. Deze eis lijkt op een variatie op de Data Protection Impact Assessment (DPIA) die vereist is onder de AVG en de beoordeling van systeemrisico's die werd geïntroduceerd in de Digital Services Act. Het doel van de FRIA is om mogelijke risico’s voor fundamentele rechten, zoals discriminatie of inbreuk op privacy, vroegtijdig te identificeren en te beheersen.
ICTRecht heeft een praktisch template ontwikkelt voor de FRIA. Het template helpt je om de impact van AI-systemen op fundamentele rechten grondig te evalueren en risico's tijdig te identificeren. Ons FRIA-template bestaat uit drie onderdelen:
Bij het uitvoeren van een FRIA is het essentieel om de situatie objectief te beschrijven. Het is belangrijk om overzicht te krijgen van mogelijke risico’s en de impact van deze risico’s goed te begrijpen. Onderbouw vervolgens je technische en organisatorische maatregelen om de geïdentificeerde risico's te beheersen.
De FRIA is geen afvinklijstje. Een veelvoorkomende valkuil is om de beoordeling slechts als een papieren oefening te beschouwen, wat kan resulteren in oppervlakkige evaluaties en gemiste kansen om daadwerkelijke problemen aan te pakken. Samenwerking is hierbij essentieel; zorg ervoor dat de beoordeling niet beperkt blijft tot afzonderlijke afdelingen zoals IT of juridische zaken, maar dat een multidisciplinair team wordt betrokken om een volledig beeld van de mogelijke gevolgen te krijgen. De FRIA benadrukt dat het naleven van fundamentele rechten niet slechts een juridische vereiste is, maar een essentiële voorwaarde voor het verantwoord gebruik van AI.
Bij ICTRecht begrijpen we de complexiteit van de uitdagingen die gepaard gaan met de het ontwikkelen en gebruiken van AI. Wij hebben daarom voor onze CAICO’s een AI-toolkit ontwikkeld. Wij schreven eerder over onze AI-inventarisatie, hiermee geven wij jou inzicht in het AI-landschap van je organisatie en in de werking van de AI-toepassing(en) die je wilt gaan ontwikkelen of gebruiken. Met de AI Act compliance scan, krijg je een gedetailleerd rapport van de geldende normen voor jouw specifieke AI-toepassing(en), de huidige situatie bij jouw organisatie en de stappen die je in het kader van compliance nog moet zetten. We breiden onze AI- toolkit nu uit met een FRIA- template, hiermee weet je zeker dat niets vergeet bij het uitvoeren van een FRIA.
Wil je meer weten over hoe onze AI-toolkit je organisatie kan helpen bij het ontwikkelen en inkopen van AI? Bezoek dan onze AI-toolkit pagina voor meer informatie, of neem contact op met één van onze experts.
Download ons gratis FRIA-template:
Meld je nu aan voor één van de nieuwsbrieven van ICTRecht en blijf op de hoogte van onderwerpen zoals AI, contracteren, informatiebeveiliging, e-commerce, privacy, zorg & ICT en overheid.