Data governance moet op de agenda

Interview voor het NARIM congres 2020.

Futuroloog Willem Peter de Ridder was jaren geleden werkzaam als Risk Manager en is daarna gepromoveerd op het onderwerp risicomanagement. Momenteel is hij niet meer actief in het vak. Hij is directeur van Futures Studies en fungeert regelmatig op congressen als spreker over onder meer de impact van kunstmatige intelligentie (AI) op de strategie van organisaties.

‘Ik werk dan niet meer als Risk Manager, maar de hele manier van denken is mij wel eigen. Daarom ook wil ik mijn inleiding tijdens het NARIM Congres graag brengen naar de wereld van de Risk & Insurance Managers en hen een aantal dingen meegeven. AI als grote onbekendeKunstmatige intelligentie raakt alles: businessmodellen, de samenleving, onze manier van leven en werken. Veel mensen weten niet wat het precies inhoudt. Het is heus niet als in de science fiction: robots gaan niet zelfstandig besluiten om zich tegen de mens te keren. Wat kunstmatige intelligentie wel is en waarom de impact daarvan zo groot is, zal ik tijdens het NARIM Congres aan de hand van een paar voorbeelden laten zien. 

Bias in, bias out

Spreken we over risicomanagement en kunstmatige intelligentie bij bedrijven, dan zijn drie zaken belangrijk: de data, de systemen en de wijze van toepassing. Data zijn belangrijk omdat daarmee de algoritmes worden getraind. In het verleden spraken we over Garbage in, garbage out (GIGO), daar is nu bijgekomen Bias in, bias out. Zitten er vooroordelen in de data, dan zet het algoritme die vooroordelen voort.

Je hoort vaak zeggen dat het algoritme dan niet deugt. Dat klopt niet, het zijn de data waarmee het algoritme is getraind die niet deugen. Het algoritme is niet meer dan wiskunde. Cruciaal is dus data governance, daar begint het allemaal mee. Heb je als risicomanager data governance niet op de agenda staan, dan moet je dat snel doen.

Human in control

De systemen die worden toegepast, moeten transparant zijn en de Risk & Insurance Manager moet ze kunnen uitleggen. Dat is in de praktijk ongelooflijk moeilijk. Heel vaak zijn de best werkende algoritmes, het meest black box. Met andere woorden, naarmate wij het algoritme minder goed kunnen uitleggen, is het resultaat beter. Toch moeten we ervoor zorgen dat we als mens in control blijven. In plaats van die black box, moeten we een stapje terug naar een grey box. Hoe? Door uitkomsten van het algoritme vooraf te checken en te zorgen dat, zeker als het over gevoelige onderwerpen gaat, we het systeem een advies laten geven, maar de mens dat advies laten beoordelen en vervolgens de finale beslissing laten nemen.

Je kunt human in control ook achteraf inbouwen, zodat er een beroepsmogelijkheid is en beslissingen die op basis van algoritmes worden genomen omkeerbaar zijn. Dat zijn de twee manieren om te zorgen dat human in control blijft. Deze boodschappen wil ik de deelnemers aan het NARIM Congres meegeven.’