Explainable AI (XAI): wat is het en waarom is het zo belangrijk?

Voor veel mensen heeft kunstmatige intelligentie (AI) iets ongrijpbaars. Het kan bijvoorbeeld lastig zijn om te begrijpen hoe het precies werkt, hoe bepaalde uitkomsten geïnterpreteerd kunnen worden of hoe besluitvorming op basis van AI tot stand komt. AI is op zichzelf niet nieuw, maar wordt vandaag de dag op steeds meer terreinen gebruikt. Een aantal jaar geleden was AI over het algemeen eenvoudiger en beter te begrijpen, maar tegenwoordig is het steeds gecompliceerder geworden en wordt er omvangrijker gebruik van gemaakt. Door deze ontwikkeling wordt AI ook door steeds meer mensen zonder verregaande technische kennis gebruikt. Dit brengt risico’s met zich mee, omdat bijvoorbeeld fouten minder snel opvallen. Daarom is er recent steeds meer aandacht voor uitlegbare of verklaarbare kunstmatige intelligentie, oftewel Explainable AI.

Wat is Explainable AI?

Explainable AI is een reactie op de black-box-ness van AI. Dit houdt in dat, vanwege de veelheid aan gegevens die met AI verwerkt kunnen worden, de output steeds moeilijker te begrijpen en te verklaren is. AI heeft ontzettend veel voordelen, maar is vaak slecht in staat om zijn resultaten zelf te verklaren. Opvallend genoeg is er (nog) geen vaste definitie van wat nu precies onder Explainable AI valt. Het doel ervan is in ieder geval om beslissingen en uitkomsten begrijpelijk en verklaarbaar voor een zo groot mogelijke groep personen te maken. Zo wordt er vooral gepleit voor extra aandacht voor Explainable AI op cruciale terreinen, zoals het verkeer, de gezondheidszorg en het (straf)recht.

Waarom is Explainable AI zo belangrijk?

Het komt steeds vaker voor dat AI-systemen zo geavanceerd zijn dat er bij de totstandkoming ervan nauwelijks sprake is geweest van menselijke inbreng. Dit soort systemen zijn in staat om aan de hand van ruwe data zelfstandig te leren en te beslissen. Dat heeft implicaties voor mensen. Denk bijvoorbeeld aan onderzoek naar geneesmiddelen of aan het gebruik van AI in de opsporing. Wanneer een werkend medicijn met behulp van kunstmatige intelligentie ontwikkeld is, wil je natuurlijk wel weten waarom het precies werkt. Daarnaast is het makkelijker om fouten te ontdekken wanneer duidelijk is hoe AI-output tot stand is gekomen. Kunstmatige intelligentie is natuurlijk maar zo goed als de data die je erin stopt. Bij een gebrek aan Explainable AI kunnen de risico’s en de gevolgen aanzienlijk zijn. Als er bijvoorbeeld een oordeel moet worden gegeven over het recidiverisico van een verdachte, is het goed om te weten op welke factoren dat risico is gebaseerd en welke weging daaraan wordt toegekend. Alleen zo worden ingrijpende beslissingen toetsbaar en transparant. Openheid van zaken zal overigens niet altijd even makkelijk gaan. Veel AI is ontwikkeld door private bedrijven en die zullen logischerwijs niet altijd bereid zijn om deze gevoelige bedrijfsinformatie te delen.

Qua wetgeving loopt de Europese Unie enigszins achter op de stand van de technologie. De AVG biedt maar beperkte mogelijkheden wat betreft transparantie en verklaarbaarheid. In 2019 heeft de Commissie wel een handleiding gepubliceerd, maar heel concreet is deze nog niet. Het geeft aan dat we op dit terrein de komende jaren ongetwijfeld meer gaan zien.

Click me


Meer lezen over dit onderwerp? Lees verder:

Terug naar overzicht