Hoe ga je verantwoord om met AI-chatbots in de zorg?

De laatste tijd is het gebruik van AI-chatbots veel in het nieuws. Scholieren gebruiken het voor schoolopdrachten, maar ook rechters gebruiken het. Ook in de zorg, waar het medisch beroepsgeheim geldt, worden AI-chatbots steeds vaker gebruikt. Dit is alleen niet zonder risico.

De Autoriteit Persoonsgegevens (‘AP’) schreef vorige maand nog dat er meerdere meldingen binnen zijn gekomen doordat medewerkers gevoelige informatie, persoonsgegevens, van hun patiënten in een AI-chatbot hebben ingevoerd. De ingevoerde gegevens komen dan terecht bij het bedrijf dat de AI-chatbot aanbiedt en dit kan leiden tot een datalek. Ook in de praktijk zien wij steeds meer organisaties die AI, in verschillende vormen, willen integreren. AI wordt binnen de zorg gezien als hulpmiddel om onder andere gesprekken op te nemen en hier automatisch een notitie van te maken, maar bijvoorbeeld ook voor het stellen van diagnoses. In deze blog kijken we specifiek naar het gebruik van AI-chatbots in de zorg. Hoe maak je in de zorg verantwoord gebruik van AI-chatbots? Waar moet je als organisatie op letten? En (deze is voor de medewerkers die meelezen): waar moeten medewerkers zich bewust van zijn?

Verantwoord gebruik

AI-chatbots kunnen fouten maken en het is niet altijd duidelijk waar het antwoord op is gebaseerd. Je weet daardoor niet of het antwoord juist is. Controleer daarom altijd de juistheid van de informatie voordat je een antwoord overneemt. Dit kan je doen door de bronnen op te vragen en deze via een zoekmachine zoals Google Chrome, Microsoft Edge of Safari op te zoeken.

Er zijn tegenwoordig meerdere AI-chatbots waarvan de namen bij de meesten bekend zullen zijn, zoals ChatGPT en Copilot. Het achterliggende idee van deze chatbots is hetzelfde: aan de hand van een (openbare) dataset worden de antwoorden van de chatbots geformuleerd. Toch werken ze net anders en kan de beveiliging van de gegevens ook verschillen. Wanneer je als organisatie gebruik wilt maken van een chatbot, bekijk dan goed welke chatbot het beste bij je wensen en eisen past.

Voor verantwoord gebruik van AI-chatbots is het daarnaast belangrijk om rekening te houden met wet- en regelgeving. Onder andere met de nieuwe AI Act, de Algemene verordening gegevensbescherming (‘AVG’), en met intellectuele eigendomsrechten moet rekening worden gehouden.

AI Act

Zo verplicht de AI Act organisaties om vanaf 1 februari 2025 te zorgen voor AI-geletterdheid bij hun medewerkers die gebruik maken van AI. Dit betekent dat alle medewerkers die gebruikmaken van een AI-chatbot, AI-geletterd moeten zijn. Medewerkers moeten AI kunnen herkennen, weten hoe ze AI kunnen toepassen, begrijpen hoe AI in de basis werkt en ze moeten zich bewust zijn van de ethische implicaties en de maatschappelijk impact van het gebruik van AI. Afhankelijk van de functie van de medewerkers mag een bepaald niveau van AI-geletterdheid worden verwacht. Van medewerkers in de zorg mag verwacht worden dat ze een redelijk AI-geletterdheidniveau bezitten, omdat ze werken met gevoelige gegevens. Het is belangrijk om bewust te zijn van de risico’s die ontstaan wanneer er (medische) persoonsgegevens in de AI-chatbot worden ingevuld.

Auteursrecht

Het is verder belangrijk dat organisaties rekening houden met de intellectuele eigendomsrechten van anderen, zoals het auteursrecht. Door gegenereerde teksten of afbeeldingen over te nemen, loop je het risico dat je inbreuk maakt op het auteursrecht van een ander. AI-chatbots halen namelijk informatie uit allerlei bronnen, ook bronnen waar intellectuele eigendomsrechten op rusten. Omdat het niet duidelijk is waar de AI-chatbot de informatie vandaan haalt, is het lastig om zelf te controleren of er inbreuk is gemaakt op het auteursrecht. In de zorg kan dit voornamelijk een probleem zijn bij het schrijven van een onderzoeksrapport.

AVG

Wanneer er persoonsgegevens in de AI-chatbot ingevuld worden, dan is ook de AVG van toepassing. Als je als organisatie besluit om gebruik te maken van AI-chatbots en dat hierin persoonsgegevens ingevuld mogen worden, ben je volgens de AP verplicht om voorafgaand aan het gebruik van de AI-chatbot een risicoanalyse uit te voeren. Een dergelijke risicoanalyse noemt men een Data Protection Impact Assessment (‘DPIA’).

Ook zal je bij het gebruik van persoonsgegevens aan een aantal eisen uit de AVG moeten voldoen. Als je een AI-chatbot gebruikt, bijvoorbeeld voor het stellen van een diagnose, en hierin persoonsgegevens invult, zal je je moeten houden aan het transparantiebeginsel. Op basis van dit beginsel zal je voorafgaand aan het gebruik van een AI-chatbot aan de cliënt moeten vertellen dat je de AI-chatbot gebruikt en voor welk doel. Daarnaast mag je niet meer persoonsgegevens verwerken dan nodig is om je doel te bereiken. Als je bijvoorbeeld hulp wilt bij het stellen van een diagnose zal het over het algemeen niet nodig zijn om adresgegevens van een cliënt in te vullen, maar kunnen alleen de symptomen genoemd worden. Verder moet je rekening houden met het feit dat de meeste AI-chatbots van Amerikaanse partijen zijn. Er zijn aanvullende eisen van toepassing wanneer er persoonsgegevens naar een bedrijf buiten de Economische Europese Ruimte gestuurd worden. Zo’n doorgifte wordt ook in een DPIA getoetst.

5 tips voor organisaties

  1. Bespreek of AI-chatbots gebruikt mogen worden en zo ja, maak over het gebruik duidelijke afspraken met medewerkers. Leg vast of er persoonsgegevens ingevuld mogen worden en welke soort persoonsgegevens niet. Voer een DPIA uit op het gebruik van persoonsgegevens in een AI-chatbot.
  2. Beoordeel welke AI-chatbot je wilt (laten) gebruiken: let bijvoorbeeld op of de gegevens opgeslagen worden en waar, waar de ingevoerde gegevens voor worden gebruikt, hoe de gegevens beveiligd worden, etc.
  3. Vult iemand persoonsgegevens in een AI-chatbot tegen de afspraken in? Meld het datalek bij de Autoriteit Persoonsgegevens en/of bij betrokkene(n).
  4. Bedenk het doel waarvoor je AI-chatbots wilt gebruiken. Zijn AI-chatbots het juiste middel om te gebruiken?
  5. Zorg voor AI-geletterdheid onder medewerkers die gebruik willen maken van AI-chatbots. Organiseer bijvoorbeeld een training over het gebruik van AI en de gevoeligheid van de gegevens in de zorg.

5 tips voor medewerkers

  1. Houd je aan de afspraken die de organisatie stelt over het gebruik van AI-chatbots.
  2. Vul geen persoonsgegevens in, tenzij dit expliciet is toegestaan door de organisatie en je dit noodzakelijk acht. Let hierbij ook op dat je je beroepsgeheim niet doorbreekt als hier geen grond voor is.
  3. Wees je ervan bewust dat als je persoonsgegevens in een AI-chatbot invult tegen de afspraken in, er sprake is van een datalek. Meld het datalek via de kanalen die de organisatie aan je beschikbaar stelt.
  4. Wees je ervan bewust dat de antwoorden van een AI-chatbot niet altijd juist zijn. Gebruik de AI-chatbot als hulpmiddel maar neem het antwoord niet voor waarheid aan. Wees kritisch op het antwoord van de AI-chatbot en controleer of het antwoord betrouwbaar is voordat je het gebruikt. Dit geldt voornamelijk voor het geval je de AI-chatbot gebruikt voor het stellen van een diagnose en/of voor medisch advies.
  5. Neem nooit gegenereerde teksten of afbeeldingen direct over. Dit kan in strijd zijn met het auteursrecht.

Aan de slag

Ga het gesprek met elkaar aan over het gebruik van AI-chatbots binnen de organisatie. Houd in het achterhoofd dat in de zorg met gevoelige gegevens wordt gewerkt en houd rekening met de toepasselijke wet- en regelgeving. Zorg ervoor dat de personen die de AI-chatbot gebruiken AI-geletterd zijn en zich bewust zijn van de risico’s. Voor meer tips over het gebruik van AI-chatbots in het algemeen kan je ook naar onze ChatGPT-richtlijnen kijken.

Terug naar overzicht