Lily Heisig: “Als je veiligheid uitsluitend technisch definieert, vallen de sociale gevolgen buiten de kaders”
Lily Heisig, winnares van de eerste prijs van de KHMW-Scriptieprijzen Responsible Internet 2025, onderzocht in haar masterscriptie hoe de Europese Unie de risico’s van kunstmatige intelligentie (AI) definieert. In Europese beleidsstukken klinkt steeds vaker dat “de hele samenleving” gevaar loopt door AI. Maar wie beter kijkt, ziet dat het begrip risico in de praktijk opvallend smal wordt ingevuld.
Heisig volgde de internationale discussie over AI-veiligheid, die aanvankelijk vooral in de VS en het VK werd gevoerd, al langer met belangstelling. “Ik wilde weten: als die Angelsaksische veiligheidsdiscussie zo dominant is, wat gebeurt er dan als die in Brussel terechtkomt?” vertelt ze.
Voor haar scriptie analyseerde ze drie opeenvolgende versies van de Europese General-Purpose AI Code of Practice. Terwijl ze daarmee bezig was, werden de teksten herhaaldelijk herschreven. Ze las de verschillende versies op detailniveau: welke woorden keren terug, welke risico’s verdwijnen naar de achtergrond? Haar methode combineerde kritische discoursanalyse met inzichten uit de exacte vakken. Zo onderzocht ze wie in het beleidsproces een stem krijgt, welke belangen meespelen en wie juist uitgesloten wordt.
In de latere versies van de code, zag ze, verschoof de toon: technischer, smaller, en sterker gericht op de eigenschappen van AI-modellen zelf. “Daardoor werd AI vooral iets voor experts,” zegt Heisig. “Sinds de terugkeer van Donald Trump in de Amerikaanse politiek oefenen grote techbedrijven meer druk uit op de EU om de regels ‘werkbaar’ te houden. In dat licht is het niet vreemd dat de Europese teksten zich toespitsen op een paar duidelijk afgebakende risico’s.”
Voor algemeen toepasbare AI-modellen met een systeemrisico onderscheidt de EU vier specifieke gevaren: aanvallen op de cybersecurity, militaire of repressieve toepassingen, verlies van controle over systemen en schadelijke beïnvloeding. “Er worden dystopische scenario’s geschetst, maar de alledaagse, moeilijker zichtbare risico’s verdwijnen uit beeld,” stelt Heisig. “Denk aan discriminatie in algoritmen, ongelijke toegang tot technologie, de aanslag op het milieu, de schendingen van het kopierecht en de slechte arbeidsomstandigheden bij dataverwerking. Als je veiligheid uitsluitend technisch definieert, vallen de sociale gevolgen buiten de kaders.”
Dat heeft politieke consequenties. “Wie risico’s technisch definieert, nodigt vooral technische experts uit aan tafel. Burgers, ngo’s of deskundigen op het gebied van mensenrechten of arbeid komen dan nauwelijks aan bod. Taal is hier niet neutraal: met je woordkeus bepaal je wie mag meebeslissen.”
Heisig gelooft niet in het doembeeld van een superintelligente machine die “de wereld overneemt”. Waar ze wel bezorgd over is, is de manier waarop mensen menselijke eigenschappen toeschrijven aan systemen als ChatGPT en die gaan gebruiken als gesprekspartner of zelfs therapeut. “Dat is geen neutrale ontwikkeling: we gaan anders kijken naar wat menselijk is.”
Inmiddels heeft Heisig een promotieaanvraag ingediend om te onderzoeken welke ideeën over ‘intelligentie’ schuilgaan achter de criteria waarmee AI-systemen worden getest. “Veel van die toetsen waarderen wiskundig en kwantitatief redeneren hoger dan kennis van mens en samenleving. Dan lijkt het alsof ‘intelligentie’ vooral wiskunde ís. Maar dat is natuurlijk ook een keuze.”
Heisig groeide op in Aken en koos bewust voor een studie net over de grens, aan Maastricht University. “In Nederland kun je makkelijker tussen disciplines bewegen dan in Duitsland. Ik had nooit één lievelingsvak; Maastricht bood me de vrijheid om technologie, politiek en filosofie te combineren. Voor dit soort vraagstukken heb je die breedte nodig.”
Haar belangrijkste inzicht: “Als een beleidsstuk zegt dat ‘de hele samenleving’ risico loopt, moet je altijd vragen: wélk risico precies, en voor wíe? Vaak blijkt het antwoord veel smaller dan de grote woorden doen vermoeden.”
De KHMW organiseert twee keer per jaar, in april en in oktober, voor belangstellende burgers en geïnteresseerde beleidsmakers een seminar in Den Haag op het gebied van openbare financiën en overheidsbeleid. De seminars zijn vrij toegankelijk. Geïnteresseerd? Geef dan uw e-mailadres door aan 