Vanochtend las ik op de website van RTL Nieuws dat uit een onderzoek van de Consumentenbond is gebleken dat de hoogte van jouw premie voor een inboedel- en autoverzekering afhankelijk is van o.a. je woonplaats, en soms zelfs een letter achter je huisnummer. Nu moet ik zeggen dat dit niet zozeer iets ‘nieuws’ is, het maken van keuzes op basis van zogeheten ‘risicoprofielen’ wordt al langer gedaan. Dit lijkt mij een mooi moment om een eerdere blog van mij terug te halen over het verbod op geautomatiseerde besluiten. Deze blog ging destijds over het gebruik van Big Data, maar het lijkt erop dat de verzekeraars hetzelfde doen.
Ook verzekeraars maken namelijk gebruik van data analyses om een besluit te nemen over een individu. Zo zal er misschien uit een analyse komen dat er veel inbraken plaatsvinden binnen een bepaald postcodegebied. Woon jij ook in dat postcodegebied? Dan loop je meer risico en moet je dus meer premie betalen. Heb je een letter achter je huisnummer staan? Dan loop je blijkbaar nog meer risico, en moet je dus nóg meer premie betalen. Dit soort besluiten worden gebaseerd op data analyses.Val jij binnen een bepaald profiel dan heb je dus pech. En dan kan het dus ook zo zijn dat jouw buurman per maand veel minder kwijt is. Dat is vrij zuur, aangezien jij en je buurman hoogstwaarschijnlijk hetzelfde risico lopen. Maarja, de computer heeft gelijk en daar moet je het dan maar mee doen.
Met het gebruik van dergelijke risicoprofielen bestaat het gevaar dat besluiten gebaseerd worden op een ‘the computer says no’ grondslag. Dit is riskant want als data niet 100 procent betrouwbaar is, of indien er simpelweg een fout tijdens een analyse wordt gemaakt, kan dit leiden tot foutieve besluiten. Om dit soort situaties te voorkomen, verbiedt de Wet bescherming persoonsgegevens het onderwerpen van een individu aan een geautomatiseerd besluit.
Dit houdt in dat er geen besluiten genomen mogen worden enkel op basis van een data-analyse, bijvoorbeeld het gebruik van risicoprofielen, wanneer dit besluit aanmerkelijke rechtsgevolgen kan hebben voor een individu. Dit kan namelijk de persoonlijke levenssfeer van een individu aantasten, en een zodanig profiel mag daarom geen grond voor besluitvorming zijn.
Wél zou een uitkomst van een data-analyse als hulpmiddel gebruikt mogen worden bij het nemen van een besluit, wanneer er ook nog sprake is van menselijke tussenkomst bij het nemen van dit besluit. Dit zou het geval kunnen zijn als, voordat de hoogte van jouw premie wordt bepaald, er nog een extra check plaatsvindt door een medewerker van de verzekeraar. Uiteraard heeft een dergelijke menselijke tussenkomst wel invloed op de snelheid van het behandelen van verzekeringsaanvragen. En dat is dan wel weer een nadeel. Er zijn ook nog uitzonderingen die het toestaan om geautomatiseerde besluiten te maken, bijvoorbeeld het nemen van passende maatregelen om het belang van de betrokkenen te beschermen.
De verzekeraars zeggen niet aan te willen geven waarop het verschil in de hoogte van premies is gebaseerd, omdat dit concurrentiegevoelige informatie zou zijn. De wet eist echter dat er een informatieplicht is wat betreft het uitleggen van de logica van de geautomatiseerde verwerking waarop een besluit is genomen. Dit zal niet altijd eenvoudig zijn, omdat dergelijke analyses vaak erg complex zijn. Ik ben dus benieuwd hoe dit af gaat lopen. Het argument ‘het is concurrentiegevoelige informatie’ is mijns inziens onvoldoende om de logica te verzwijgen.
Meld je nu aan voor één van de nieuwsbrieven van ICTRecht en blijf op de hoogte van onderwerpen zoals AI, contracteren, informatiebeveiliging, e-commerce, privacy, zorg & ICT en overheid.