Kunstmatige intelligentie (AI) is hard op weg om een vaste plek te veroveren in de verzekeringssector. Waar traditionele verzekeraars risicoanalyses en claimafhandelingen handmatig beoordelen, maken algoritmes het nu mogelijk om dergelijke processen sneller en preciezer uit te voeren. Of het nu gaat om het berekenen van premies, het beoordelen van schadeclaims of het opsporen van fraude: algoritmes spelen steeds vaker een hoofdrol in de verzekeringswereld. Efficiënt? Zeker. Maar niet zonder risico’s.
Want wat gebeurt er als een klant wordt geweigerd voor een verzekering op basis van een ondoorzichtig AI-model? Of als een schadeclaim wordt afgewezen zonder menselijke tussenkomst? De Nederlandsche Bank (DNB) waarschuwt in haar recente onderzoek dat AI in de verzekeringssector net zo goed vragen oproept als kansen biedt. Verzekeringsgerelateerde AI-toepassingen kunnen namelijk een grote impact hebben op het gebied van besluitvorming, uitlegbaarheid en gegevensbescherming. Verzekeraars doen er dan ook verstandig aan om bij de inzet van AI niet alleen oog te hebben voor de voordelen, maar ook voor de bijbehorende risico’s.
In deze blog verkennen we hoe AI de rol van verzekeraars verandert, welke kansen dit biedt en welke risico’s verzekeraars moeten meewegen bij het gebruik van deze technologie. Tot slot bieden we verzekeraars praktische handvatten voor een toekomstbestendige én verantwoorde inzet van AI.
AI verwijst naar algoritmen of systemen die – met een zekere mate van zelfstandigheid – taken uitvoeren zoals patroonherkenning, besluitvorming of risicovoorspelling. Het gaat om slimme instructies die data verwerken en op basis daarvan tot een uitkomst komen. Veel van deze systemen kunnen bovendien zelf verbeteren door te leren van nieuwe gegevens. Meer over de werking en toepassingen van AI kan je hier vinden.
Ook binnen de verzekeringssector wint AI snel terrein. Verzekeraars zetten AI inmiddels breed in voor het berekenen van premies, het automatisch beoordelen van schadeclaims en het opsporen van mogelijk frauduleus gedrag. De automatisering van deze processen levert aanzienlijke voordelen op. Voor verzekeraars betekent het snellere en efficiëntere interne processen, lagere operationele kosten en minder kans op menselijke fouten. Daarnaast ervaren hun klanten een vlottere, beter afgestemde dienstverlening met minder handmatige drempels. Waar klanten voorheen moesten wachten op handmatige beoordelingen, lange wachttijden en telefonische toelichtingen, kunnen veel processen nu binnen enkele seconden door AI worden afgehandeld. De DNB en de Autoriteit Financiële Markten (AFM) verwachten dan ook dat het gebruik van AI in de financiële sector de aankomende jaren aanzienlijk zal toenemen.
Tegelijkertijd brengt het gebruik van AI serieuze juridische en ethische aandachtspunten met zich mee. De Europese AI Act, die sinds augustus 2024 (deels) van kracht is, heeft aanzienlijke implicaties voor de verzekeringssector. Deze wet classificeert verschillende AI-toepassingen in de verzekeringssector als ‘hoog risico’, wat leidt tot strikte nalevingsvereisten. Ook de Algemene verordening persoonsgegevens (AVG) blijft onverminderd van toepassing, met regels rond geautomatiseerde besluiten en gegevensbescherming. Overtredingen van deze wetten kunnen leiden tot forse sancties en boetes van toezichthouders zoals de Autoriteit Persoonsgegevens (AP).
Overweeg je als verzekeraar om AI toe te passen in je processen? Dan is het verstandig om verder te kijken dan alleen efficiëntie. In de volgende paragrafen bespreken we welke risico’s in de praktijk kunnen ontstaan — en waarom zorgvuldigheid geboden is.
De inzet van AI wekt de schijn van objectieve, datagedreven besluitvorming, maar brengt in de praktijk ook het risico van onbedoelde discriminatie met zich mee. AI-modellen worden getraind op historische datasets die niet altijd neutraal zijn. Deze data kunnen vooroordelen bevatten, bijvoorbeeld op basis van leeftijd, geslacht, afkomst of woonplaats. Wanneer een AI deze patronen overneemt, kunnen bepaalde groepen structureel worden benadeeld. Denk aan het gebruik van AI bij kredietbeoordelingen: als vrouwen historisch minder vaak krediet kregen, bestaat het risico dat het model op basis van deze data vrouwen ook nu onterecht lagere kredietscores geeft. Dit kan leiden tot uitsluiting van essentiële financiële diensten, zoals leningen of verzekeringen.
Voor verzekeraars benadrukt dit het belang van zorgvuldige en representatieve dataselectie. Het gebruik van AI mag immers niet leiden tot onbedoelde en ongelijke behandeling van individuen of groepen. Onder de AI Act zijn verzekeraars bovendien verplicht om maatregelen te nemen die bias in datasets opsporen, beperken en documenteren. Daarmee wordt van hen verwacht dat zij actief zorgen voor ‘eerlijke’ en ‘verantwoorde’ uitkomsten van AI-toepassingen. In de praktijk blijkt echter dat deze begrippen door wet- en toezichthouders nog weinig concreet zijn uitgewerkt. Daardoor is het voor verzekeraars lastig om te beoordelen of hun AI-systemen aan de wettelijke vereisten voldoen. Dit leidt ertoe dat veel verzekeraars hun eigen beleid opstellen, vaak op basis van uiteenlopende interpretaties.
De toepassing van AI in verzekeringsprocessen brengt ook uitdagingen met zich mee op het gebied van transparantie en uitlegbaarheid. Veel AI-modellen zijn technisch complex: ze bestaan uit meerdere lagen en verwerken honderden variabelen die samen leiden tot een bepaalde uitkomst. Hierdoor is het vaak moeilijk te achterhalen welke factoren doorslaggevend waren bij een specifieke beslissing. Dit gebrek aan inzicht maakt het voor klanten — en soms zelfs voor verzekeraars — onduidelijk op basis waarvan een aanvraag wordt goedgekeurd of afgewezen.
Dit zogehetenblack box-effect kan problematisch zijn, zeker in situaties waarin klanten recht hebben op een duidelijke motivering. Onder de AVG hebben klanten recht op uitleg over geautomatiseerde besluiten, zoals hoe het besluit tot stand kwam en wat de gevolgen zijn. Wanneer een verzekeraar hier niet aan kan voldoen kan dit worden aangemerkt als een inbreuk op de privacyrechten van de klant. De AI Act stelt daarnaast aanvullende eisen aan de transparantie van hoog-risico AI-systemen, zoals die in de verzekeringssector. Verzekeraars worden verplicht om uitlegbaarheid in te bouwen, risico’s actief te monitoren en documentatie over het gebruik van AI beschikbaar te stellen.
Het risico van onvoldoende transparantie is niet alleen een compliance kwestie, maar raakt ook direct aan het vertrouwen van de klant. Wanneer beslissingen niet uitlegbaar zijn, kan dat leiden tot gevoelens van willekeur of oneerlijke behandeling — met reputatieschade als gevolg. Denk aan het gebruik van een zogeheten ‘AI-agent’: een chatbot die niet duidelijk maakt dat er geen mens aan de andere kant zit, kan leiden tot frustratie en wantrouwen. Opvallend is dat verzekeraars zich in de praktijk vooral zorgen maken over deze risico’s, zo blijkt uit het onderzoek van de DNB. Transparantie is dus een onmisbare randvoorwaarde voor betrouwbare en klantgerichte inzet van AI.
Fraudebestrijding is al jarenlang een belangrijk speerpunt voor verzekeraars — en met de opkomst van AI hebben zij daar een krachtig, nieuw hulpmiddel bij gekregen. Waar traditionele controles vaak beperkt blijven tot steekproeven of standaardanalyses, kunnen moderne AI-systemen razendsnel grote hoeveelheden data analyseren en risicovolle patronen herkennen. Denk aan afwijkend declaratiegedrag, het blootleggen van verdachte netwerken of het voorspellen van verhoogd frauderisico. Daarbij wordt vaak gebruikgemaakt van profilering: het indelen van klanten in risicocategorieën op basis van gedrags- of achtergrondkenmerken. Door uiteenlopende databronnen te combineren, zoals transacties, e-mails en zelfs social media, worden ook subtiele signalen zichtbaar die eerder onder de radar bleven. Voor verzekeraars levert dit snellere detectie op, lagere kosten en een beter beschermde portefeuille.
Toch is deze aanpak niet zonder risico’s. Wanneer verzekeraars AI inzetten om potentiële fraudeurs te identificeren via profilering, begeven zij zich op (juridisch) glad ijs. De AI Act verbiedt AI-toepassingen die automatisch personen als fraudeur aanmerken op basis van algemene risicopatronen, zonder feitelijke of verifieerbare onderbouwing. Hiervan is bijvoorbeeld sprake wanneer iemand een verhoogde risicoscore krijgt enkel omdat hij in een bepaalde wijk woont of kort na het afsluiten van een polis een claim indient. Toegestane AI-toepassingen op dit gebied vallen onder de categorie ‘hoog risico’ en moeten voldoen aan strenge eisen voor transparantie, risicobeheer en menselijke controle. De AVG legt hier nog een extra laag bovenop, met onder andere het recht op menselijke beoordeling bij geautomatiseerde besluitvorming.
De risico’s rond uitlegbaarheid, discriminatie en privacy zijn reëel — maar dat betekent niet dat AI ongeschikt is voor de sector. Integendeel: een verzekeraar die inzet op verantwoord gebruik, kan daarmee concurrentievoordeel behalen. De sleutel ligt in een doordachte, structurele aanpak. Met deze vier handvatten kunnen verzekeraars direct aan de slag:
Weet welke beslissingen je AI-systemen nemen, op basis van welke data, en hoe je dit begrijpelijk kunt toelichten aan klanten én toezichthouders. Richt processen zo in dat geautomatiseerde uitkomsten verklaarbaar zijn en toetsbaar blijven. Documenteer modellen en beslisregels, en zorg dat het klantcontact (bijvoorbeeld via AI-agents) duidelijk is over de rol van AI binnen de organisatie.
Gebruik alleen datasets die voldoende representatief zijn voor de doelgroep waarop je het model toepast. Voer vooraf en periodiek bias-analyses uit, zeker bij modellen voor risicobeoordeling, acceptatie of fraude. Leg vast hoe je bias monitort, corrigeert én rapporteert, zoals vereist onder de AI Act en AVG.
Stel duidelijke rollen en verantwoordelijkheden vast voor de ontwikkeling, implementatie en controle van AI-toepassingen binnen de organisatie. Leg in procedures vast hoe systemen worden getest, hoe incidenten worden geregistreerd en wie toezicht houdt. Zorg daarnaast dat AI-systemen niet alleen vooraf worden beoordeeld, maar ook continu worden gemonitord en geëvalueerd — met voldoende ruimte voor audits en bijsturing waar nodig.
Zorg dat medewerkers voldoende begrijpen van de werking én risico’s van AI. Geef juridische, compliance- en IT-teams handvatten om risico’s vroegtijdig te signaleren. Werk daarnaast aan een breed gedragen AI-strategie die niet alleen aansluit op de bedrijfsdoelstellingen, maar ook rekening houdt met de juridische verplichtingen. Sluit waar mogelijk aan bij bestaande branche-initiatieven, zoals het ‘Ethisch Kader Datagedreven Toepassingen’ van het Verbond van Verzekeraars, en blijf goed geïnformeerd over nieuwe richtlijnen van toezichthouders zoals DNB, de AP en de AFM.
Zo bouwen verzekeraars stap voor stap aan betrouwbare, wettelijk verantwoorde en toekomstgerichte AI-toepassingen.
Voor verzekeraars ligt er een duidelijke opdracht: benut de kansen van AI, maar neem de risico’s serieus. Of het nu gaat om fraudepreventie, risicobeoordeling of klantinteractie — elke toepassing vraagt om een balans tussen slimme automatisering en betrouwbare, uitlegbare besluitvorming. Dat begint bij transparantie, uitlegbaarheid en menselijk toezicht, en strekt zich uit tot robuuste governance en goed geïnformeerde medewerkers.
AI mag processen versnellen, maar vereist ook een stevig moreel en juridisch kompas. De verzekeraar die daar vandaag in investeert, bouwt aan duurzame én betrouwbare verzekeringsdiensten voor de toekomst.
Maakt jouw organisatie gebruik van AI? Zorg dat je juridisch op het juiste spoor zit. Wij helpen je graag! Neem vrijblijvend contact op om de mogelijkheden te ontdekken.
Meld je nu aan voor één van de nieuwsbrieven van ICTRecht en blijf op de hoogte van onderwerpen zoals AI, contracteren, informatiebeveiliging, e-commerce, privacy, zorg & ICT en overheid.