De laatste tijd is het gebruik van AI-chatbots veel in het nieuws. Scholieren gebruiken het voor schoolopdrachten, maar ook rechters gebruiken het. Ook in de zorg, waar het medisch beroepsgeheim geldt, worden AI-chatbots steeds vaker gebruikt. Dit is alleen niet zonder risico.
De Autoriteit Persoonsgegevens (‘AP’) schreef vorige maand nog dat er meerdere meldingen binnen zijn gekomen doordat medewerkers gevoelige informatie, persoonsgegevens, van hun patiënten in een AI-chatbot hebben ingevoerd. De ingevoerde gegevens komen dan terecht bij het bedrijf dat de AI-chatbot aanbiedt en dit kan leiden tot een datalek. Ook in de praktijk zien wij steeds meer organisaties die AI, in verschillende vormen, willen integreren. AI wordt binnen de zorg gezien als hulpmiddel om onder andere gesprekken op te nemen en hier automatisch een notitie van te maken, maar bijvoorbeeld ook voor het stellen van diagnoses. In deze blog kijken we specifiek naar het gebruik van AI-chatbots in de zorg. Hoe maak je in de zorg verantwoord gebruik van AI-chatbots? Waar moet je als organisatie op letten? En (deze is voor de medewerkers die meelezen): waar moeten medewerkers zich bewust van zijn?
AI-chatbots kunnen fouten maken en het is niet altijd duidelijk waar het antwoord op is gebaseerd. Je weet daardoor niet of het antwoord juist is. Controleer daarom altijd de juistheid van de informatie voordat je een antwoord overneemt. Dit kan je doen door de bronnen op te vragen en deze via een zoekmachine zoals Google Chrome, Microsoft Edge of Safari op te zoeken.
Er zijn tegenwoordig meerdere AI-chatbots waarvan de namen bij de meesten bekend zullen zijn, zoals ChatGPT en Copilot. Het achterliggende idee van deze chatbots is hetzelfde: aan de hand van een (openbare) dataset worden de antwoorden van de chatbots geformuleerd. Toch werken ze net anders en kan de beveiliging van de gegevens ook verschillen. Wanneer je als organisatie gebruik wilt maken van een chatbot, bekijk dan goed welke chatbot het beste bij je wensen en eisen past.
Voor verantwoord gebruik van AI-chatbots is het daarnaast belangrijk om rekening te houden met wet- en regelgeving. Onder andere met de nieuwe AI Act, de Algemene verordening gegevensbescherming (‘AVG’), en met intellectuele eigendomsrechten moet rekening worden gehouden.
Zo verplicht de AI Act organisaties om vanaf 1 februari 2025 te zorgen voor AI-geletterdheid bij hun medewerkers die gebruik maken van AI. Dit betekent dat alle medewerkers die gebruikmaken van een AI-chatbot, AI-geletterd moeten zijn. Medewerkers moeten AI kunnen herkennen, weten hoe ze AI kunnen toepassen, begrijpen hoe AI in de basis werkt en ze moeten zich bewust zijn van de ethische implicaties en de maatschappelijk impact van het gebruik van AI. Afhankelijk van de functie van de medewerkers mag een bepaald niveau van AI-geletterdheid worden verwacht. Van medewerkers in de zorg mag verwacht worden dat ze een redelijk AI-geletterdheidniveau bezitten, omdat ze werken met gevoelige gegevens. Het is belangrijk om bewust te zijn van de risico’s die ontstaan wanneer er (medische) persoonsgegevens in de AI-chatbot worden ingevuld.
Het is verder belangrijk dat organisaties rekening houden met de intellectuele eigendomsrechten van anderen, zoals het auteursrecht. Door gegenereerde teksten of afbeeldingen over te nemen, loop je het risico dat je inbreuk maakt op het auteursrecht van een ander. AI-chatbots halen namelijk informatie uit allerlei bronnen, ook bronnen waar intellectuele eigendomsrechten op rusten. Omdat het niet duidelijk is waar de AI-chatbot de informatie vandaan haalt, is het lastig om zelf te controleren of er inbreuk is gemaakt op het auteursrecht. In de zorg kan dit voornamelijk een probleem zijn bij het schrijven van een onderzoeksrapport.
Wanneer er persoonsgegevens in de AI-chatbot ingevuld worden, dan is ook de AVG van toepassing. Als je als organisatie besluit om gebruik te maken van AI-chatbots en dat hierin persoonsgegevens ingevuld mogen worden, ben je volgens de AP verplicht om voorafgaand aan het gebruik van de AI-chatbot een risicoanalyse uit te voeren. Een dergelijke risicoanalyse noemt men een Data Protection Impact Assessment (‘DPIA’).
Ook zal je bij het gebruik van persoonsgegevens aan een aantal eisen uit de AVG moeten voldoen. Als je een AI-chatbot gebruikt, bijvoorbeeld voor het stellen van een diagnose, en hierin persoonsgegevens invult, zal je je moeten houden aan het transparantiebeginsel. Op basis van dit beginsel zal je voorafgaand aan het gebruik van een AI-chatbot aan de cliënt moeten vertellen dat je de AI-chatbot gebruikt en voor welk doel. Daarnaast mag je niet meer persoonsgegevens verwerken dan nodig is om je doel te bereiken. Als je bijvoorbeeld hulp wilt bij het stellen van een diagnose zal het over het algemeen niet nodig zijn om adresgegevens van een cliënt in te vullen, maar kunnen alleen de symptomen genoemd worden. Verder moet je rekening houden met het feit dat de meeste AI-chatbots van Amerikaanse partijen zijn. Er zijn aanvullende eisen van toepassing wanneer er persoonsgegevens naar een bedrijf buiten de Economische Europese Ruimte gestuurd worden. Zo’n doorgifte wordt ook in een DPIA getoetst.
Ga het gesprek met elkaar aan over het gebruik van AI-chatbots binnen de organisatie. Houd in het achterhoofd dat in de zorg met gevoelige gegevens wordt gewerkt en houd rekening met de toepasselijke wet- en regelgeving. Zorg ervoor dat de personen die de AI-chatbot gebruiken AI-geletterd zijn en zich bewust zijn van de risico’s. Voor meer tips over het gebruik van AI-chatbots in het algemeen kan je ook naar onze ChatGPT-richtlijnen kijken.
Meld je nu aan voor één van de nieuwsbrieven van ICTRecht en blijf op de hoogte van onderwerpen zoals AI, contracteren, informatiebeveiliging, e-commerce, privacy, zorg & ICT en overheid.