Slimme technologie, roekeloos gebruik? AI en ESG in de praktijk

De inzet van kunstmatige intelligentie (AI) roept niet alleen vragen op over technologie en efficiëntie, maar ook over maatschappelijke verantwoordelijkheid. In dit blog geven we een eerste overzicht van hoe AI raakt aan drie belangrijke pijlers binnen duurzaam en verantwoord ondernemen: milieu (Environmental), samenleving (Social) en goed bestuur (Governance), kortweg ESG. Deze thema’s worden steeds belangrijker, zeker met de komst van nieuwe wetgeving zoals de AI-verordening (AI Act), Corporate Social Due Diligence Directive (CSDDD) en de verplichtingen uit de Corporate Sustainability Reporting Directive (CSRD).

Milieu: AI verbruikt flink wat energie, water en grondstoffen

AI is afhankelijk van grote hoeveelheden rekenkracht . Dat heeft directe milieueffecten: energieverbruik, watergebruik, e-waste en uitstoot. Denk aan het trainen van taalmodellen, het uitvoeren van zoekopdrachten en het constant laten draaien van datacenters. Daar komt bij dat AI indirect ook kan leiden tot extra belasting van het milieu, bijvoorbeeld door toenemend gebruik van autonome voertuigen of het stroomlijnen van consumptiegedrag.

Hoewel links en rechts moord en brand wordt geroepen is het onduidelijk hoe groot die impact precies is: het is lastig vast te stellen. Er bestaan nog geen gestandaardiseerde methoden om de milieu-impact van AI objectief te meten of rapporteren. Internationale organisaties zoals de Verenigde Naties en UNESCO pleiten daarom voor duidelijke standaarden en structurele monitoring. Ook binnen de Europese wetgeving komt er aandacht voor: de AI Act roept op tot het opstellen van gedragscodes voor duurzaam gebruik van AI, en de CSRD verplicht organisaties om te rapporteren over ecologische gevolgen, inclusief die van digitale technologieën.

Kortom: organisaties kunnen niet om de milieu-impact van AI heen, ook al zijn de exacte cijfers nog niet altijd voorhanden.

Sociaal: waarschijnlijkheden, bias en de menselijke maat

AI werkt op basis van waarschijnlijkheid. Een systeem wordt getraind op grote hoeveelheden historische data, herkent patronen en voorspelt wat het meest waarschijnlijke antwoord is. Die manier van werken maakt AI krachtig, maar brengt ook risico’s met zich mee. Want als de onderliggende data onvolledig, eenzijdig of bevooroordeeld is, dan leert het systeem diezelfde patronen — inclusief de fouten.

Dit noemen we bias. En het is niet alleen een technisch risico, maar ook een maatschappelijk probleem. Denk aan AI in werving en selectie of bij kredietverlening systemen kunnen bepaalde groepen systematisch benadelen zonder dat dit direct zichtbaar is. Vooral vrouwen, mensen van kleur, minderheden en lage inkomensgroepen lopen hierbij extra risico.

De AI Act probeert deze risico’s te beperken door bepaalde toepassingen te verbieden of als ‘hoog risico’ te bestempelen. Zo is het verboden om AI in te zetten voor emotieherkenning op de werkvloer of in het onderwijs. Ook profilering en het gebruik van gevoelige gegevens voor biometrische categorisatie zijn streng gereguleerd.

Daarnaast benadrukken zowel de wetgever als internationale organisaties het belang van uitlegbaarheid, menselijke tussenkomst en kritische reflectie. AI mag ondersteunen, maar mag nooit de enige beslisser zijn — zeker niet in contexten waar fundamentele rechten in het geding zijn.

Bestuur: verantwoordelijkheid vraagt om actie, geen vinkjes

Goed bestuur betekent dat duidelijk is wie binnen de organisatie verantwoordelijk is voor AI-systemen. De AI Act en CSDDD verplichten bedrijven om risicoanalyses en interne governance-structuren op te zetten. Een Chief AI Compliance Officer, ethische commissies of gespecialiseerde governance-boards zijn voorbeelden hiervan.

Maar ethiek blijft vaak hangen in vrijblijvende discussies en abstracte richtlijnen die in bureaulades verdwijnen. Ingenieurs bouwen razendsnel algoritmes en data-analisten ontwikkelen complexe modellen, vaak zonder heldere ethische kaders. Dit leidt regelmatig tot problemen, pas zichtbaar wanneer een AI-schandaal uitbreekt en niemand precies weet wie verantwoordelijk was.

Ethiek en verantwoordelijkheid mogen dus geen vrijblijvende "tick-the-box" zijn. Ze moeten ingebed zijn in de fundamenten van AI-ontwikkeling (én de organisatie zelf). Privacy by design, bias-controle en transparantie zijn niet optioneel, maar basisvoorwaarden. Goed bestuur vraagt om organisaties en medewerkers die zich bewust zijn van hun rol en verantwoordelijkheid in een digitale samenleving.

AI & ESG: verantwoordelijkheid is geen optie, maar noodzaak 

De inzet van AI raakt álle onderdelen van ESG: van CO₂-uitstoot tot sociale uitsluiting en interne besluitvorming. Dat maakt het onderwerp complex — maar ook noodzakelijk. Organisaties staan nu voor de taak om actief en integraal verantwoordelijkheid te nemen. Het is essentieel om hierbij op je hoede te zijn voor diffusie van verantwoordelijkheid, wat een groot risico is zeker bij het verwerken van ethiek in je organisatie.

Organisaties moeten zich voorbereiden op rapportageverplichtingen, toezichtmechanismen en ethische afwegingen. Niet omdat dat moet van ‘Brussel’, maar omdat technologie zonder toezicht nu eenmaal risico’s met zich meebrengt. Bewust omgaan met AI—met oog voor milieu, samenleving én ethiek—is geen vrijblijvende keuze meer. Het is noodzakelijk voor verantwoord ondernemen.

Heb je hulp nodig bij het verantwoord inzetten van AI? Wij helpen je graag. Neem contact op om de  mogelijkheden te bespreken. 

Meer informatie

Terug naar overzicht