Waarom zijn algoritmen zo aantrekkelijk voor de overheid, en waar schuilt het gevaar? In zijn masterscriptie voor de opleiding Applied Ethics aan de Universiteit Utrecht onderzoekt Kim Hospers de rol van empathie en emotie in moreel gevoelige besluitvorming. Zijn conclusie is helder: algoritmen kunnen veel, maar mogen nooit zelfstandig beslissen over mensenlevens.
Kim Hospers / Fotograaf: Kamil Kaminski

Wat was de aanleiding voor je onderzoek?
“Het was eigenlijk een samenloop van omstandigheden. Aan de ene kant speelde de toeslagenaffaire natuurlijk een rol, en ook wat er bij DUO is misgegaan. Tegelijkertijd volgde ik een vak waarin we spraken over het toedichten van menselijke eigenschappen aan artificiële systemen. Kun je eigenlijk wel spreken van ‘intelligentie’ bij artificiële intelligentie?
Daarnaast was er een heel alledaagse ervaring. Ik kocht online een vrij duur product, betaalde netjes, maar kreeg geen bestelbevestiging. Toen ik contact zocht, bleek er niemand bereikbaar, alleen een chatbot. Die gaf als antwoord: ‘Wij adviseren u om geduld te hebben.’ Formeel correct, maar daar heb je natuurlijk niets aan. Als een mens mij had uitgelegd wat er aan de hand was, had ik daar veel meer begrip voor gehad. Die drie dingen samen brachten me bij dit onderwerp.”
In je scriptie stel je dat algoritmen geen empathie kunnen hebben. Waarom is empathie volgens jou essentieel bij besluiten die diep ingrijpen in mensenlevens?
“Ik voer daar drie argumenten voor aan. Het eerste is dat je, om de situatie van mensen echt te begrijpen, context nodig hebt. In sommige gevallen is het belangrijk om te weten waar iemand doorheen gaat, wat er op het spel staat. Dat vereist empathisch vermogen. Dat kun je niet simpelweg berekenen.
Het tweede argument is dat emoties een belangrijke rol spelen in het democratisch proces. In de interactie tussen burgers en overheid hebben emoties een motiverende waarde. Een menselijke uitvoeringsambtenaar kan bijvoorbeeld boos of verdrietig worden over een systeem dat onrechtvaardig uitpakt en daardoor aan de bel trekken. Een algoritme kan dat niet.
En ten derde: fouten maken is onvermijdelijk. Juist dan is empathie cruciaal, van overheid naar burger en andersom. Een burger kan begrip opbrengen als een ambtenaar erkent dat er iets fout is gegaan. En omgekeerd kan een overheid met empathie zien dat een fout van een burger niet per se kwade opzet is.”
In discussies over AI in beleid gaat het vaak over bias en transparantie. Wat mis je in dat debat?
“Voor mijn gevoel zit dat debat een beetje op slot. Het overgrote deel van de literatuur gaat over bias en ondoorzichtigheid van algoritmen, en terecht. Maar je kunt dezelfde kritiek ook op menselijke besluitvorming toepassen. Mensen zijn ook notoir bevooroordeeld en zijn lang niet altijd transparant over hun afwegingen.
Wat ik probeer toe te voegen, is een andere invalshoek: laten we expliciet kijken naar de rol van emotie en empathie. Niet als wondermiddel, maar als een factor die we serieus moeten nemen.”
Betekent dat dat je technologie afwijst?
“Zeker niet. Dat benadruk ik juist sterk. Algoritmen zijn enorm waardevol en we moeten ze absoluut niet aan de kant schuiven. Mijn conclusie is dat algoritmen prima ingezet kunnen worden, zolang ze niet zelfstandig beslissingen nemen die direct ingrijpen in het welzijn van burgers. In zulke gevallen moet er altijd een empathische actor tussen zitten: een mens.
Wat we niet moeten doen, is een volledig geautomatiseerd systeem optuigen dat ondoorzichtig is en de uitkomsten klakkeloos overnemen, zoals bij de toeslagenaffaire is gebeurd.”
Je zou 'algoritmische besluitvorming' een categorie-fout kunnen noemen, kun je uitleggen waarom?
“In de literatuur wordt vaak gesproken over ‘algorithmic decision making’ versus ‘human decision making’. Maar dat is eigenlijk misleidend. Het zijn altijd mensen die besluiten om algoritmen in te zetten, en die bepalen ook welke rol die systemen krijgen. Als we zeggen ‘het algoritme heeft besloten’, schuiven we verantwoordelijkheid af. Dat roept onnodige vragen op over wie aansprakelijk is. Hoe dan ook is het een mens die besloten heeft het systeem in te zetten en bij die beslissing ligt de verantwoordelijkheid. Die verantwoordelijkheid staat los van eventuele onvoorziene of ongewenste gevolgen die met het gebruik van het systeem gepaard gaan.”
Wat laat de toeslagenaffaire volgens jou zien over de risico’s van geautomatiseerde besluitvorming?
“Wat daar misging, is onder meer dat het onderscheid tussen moedwillige fraude en menselijke fouten volledig is verdwenen. Bovendien zaten er racistische elementen in het systeem. De toeslagenaffaire kwam voort uit de Bulgarenfraude, waar we als samenleving verontwaardigd over waren. De reactie daarop was extreem streng, en die strengheid is vervolgens geautomatiseerd. Dat is funest gebleken. Het laat zien hoe belangrijk wederkerige empathische interactie is tussen overheid en burgers. Tegelijkertijd is het een voorbeeld van de gevaren van puur emotioneel handelen en een weinig kritische houding naar technologische oplossingen. We moeten ons afvragen hoe wij dit als samenleving hebben laten gebeuren.”
Waar zie jij wél een legitieme rol voor algoritmen in overheidsbeleid?
“Op heel veel plekken. De overheid gebruikt al lang algoritmen om processen te versnellen. In mijn scriptie noem ik bijvoorbeeld systemen die bepalen of iemand recht heeft op uitstel van belastingbetaling. Dat levert enorme tijdwinst op en is prima, zolang er een mens blijft die de invoer controleert en de uitkomst beoordeelt.
Hetzelfde geldt voor rekenmodellen die natuurrampen voorspellen. Dat soort toepassingen heeft enorme maatschappelijke waarde.”
Als je één misverstand over AI in de publieke sector zou mogen wegnemen, welk zou dat zijn?
“Dat is moeilijk kiezen. Ik noem er twee. Allereerst is er veel wantrouwen en dat wantrouwen begrijp ik, maar we moeten het kind niet met het badwater weggooien. Veel algoritmische toepassingen maken ons leven juist makkelijker. Ten tweede is het belangrijk te beseffen wat een algoritme wel en niet doet. Het maakt voorspellingen op basis van input. Het denkt niet, het wil niets, het heeft geen intenties.”
Wat betekent jouw onderzoek concreet voor beleidsmakers en uitvoerende ambtenaren?
“Misschien dat ze vaker niet alleen moeten onderzoeken of iets efficiënter kan, maar ook wat de morele en maatschappelijke consequenties zijn. Technologie kan helpen, maar is geen vrijbrief.
Soms is een combinatie van menselijk ‘gesputter’ en technische hulpmiddelen simpelweg de beste weg vooruit. Ruimte maken voor empathie, terwijl je gebruikmaakt van de versnelling die AI biedt – dát is volgens mij de kern.”
Je bent ouder dan de gemiddelde masterstudent. Heeft je levensloop invloed gehad op deze scriptie?
“Ik kan zeggen dat ik niet bepaald een onbezorgde jeugd heb gehad. Daardoor heb ik een groot gedeelte van mijn leven een nogal ambivalente houding gehad ten opzichte van emoties. Ik denk dat dit eraan heeft bijgedragen het onderwerp met een zekere zakelijke afstand te kunnen bestuderen. Daarnaast ben ik oorspronkelijk opgeleid als kunstenaar en geef al twintig jaar les aan de kunstacademie in Rotterdam. Vanuit die rol ben ik gewend voortdurend de wereld om mij heen te bevragen. Dat heeft me ook zeker geholpen.”
Zie je jezelf promoveren?
“Dat lijkt me ontzettend interessant. Praktisch gezien is het ingewikkeld, onder andere door verplichtingen vanuit de lerarenbeurs die het mogelijk heeft gemaakt dat ik naast werk en gezin deze master kon gaan volgen. Veel promotietrajecten die ik passend vind, zijn fulltime. Maar ik houd mijn ogen open. Dit smaakt naar meer.”
De KHMW organiseert twee keer per jaar, in april en in oktober, voor belangstellende burgers en geïnteresseerde beleidsmakers een seminar in Den Haag op het gebied van openbare financiën en overheidsbeleid. De seminars zijn vrij toegankelijk. Geïnteresseerd? Geef dan uw e-mailadres door aan 