Software-engineeringonderzoeker Ayushi Rastogi (Rijksuniversiteit Groningen) ontvangt de KHMW Langerhuizen Bate 2026 (€ 25.000) voor een onderzoeksproject naar de vraag hoe kunstmatige intelligentie het werk van softwareprofessionals met een beperking beïnvloedt. Haar onderzoek stelt een actuele vraag: maakt AI werk inclusiever, of dreigt zij bestaande ongelijkheden juist te versterken?

Foto: Bram Saeys; 4-9-2021; Tilburg; Ayushi Rastogi IO Magazine RUG
U bent geboren en opgeleid in India en bent daar ook gepromoveerd. Wat bracht u naar Nederland?
Mijn komst naar Nederland had aanvankelijk persoonlijke redenen. Ik werkte destijds als postdoc in Californië, terwijl mijn partner – inmiddels mijn echtgenoot – hier aan zijn promotie begon. Maar het bleek ook professioneel een uitstekende stap. Nederland heeft een van de sterkste onderzoeksgemeenschappen op het gebied van software engineering ter wereld, en het was voor mij zeer waardevol om daar deel van te gaan uitmaken.
Hoe heeft werken in Nederland u als onderzoeker veranderd?
Het grootste verschil voor mij is de nauwe samenwerking tussen wetenschap en bedrijfsleven. In India, zeker in de periode waarin ik daar werkte, zo’n acht tot tien jaar geleden, hadden veel grote softwarebedrijven hun eigen onderzoeksafdelingen en was samenwerking met universiteiten minder gebruikelijk. In Nederland is de interactie met het bedrijfsleven veel sterker geïntegreerd in academisch onderzoek.
Daardoor ben ik beter gaan begrijpen tegen welke praktische uitdagingen mensen in hun werk aanlopen. Grote bedrijven beschikken bijvoorbeeld vaak over omvangrijke datasets, terwijl kleinere bedrijven juist vooral willen leren van ervaringen elders. Die samenwerking met uiteenlopende partners heeft mijn kijk op de maatschappelijke waarde van onderzoek sterk verbreed.
Uw onderzoek richt zich op de manier waarop kunstmatige intelligentie software beïnvloedt die een rol speelt in ons dagelijks leven, in de samenleving en in de economie. Waarom is het belangrijk om die impact systematisch te bestuderen?
Software is diep verweven met de manier waarop we werken, communiceren en ons leven organiseren. Traditioneel bestudeerden we vooral de mensen die software ontwikkelen om de systemen die zij bouwen beter te begrijpen. Maar met de komst van AI verandert die relatie snel. Software kan nu veel sneller worden gegenereerd, soms op manieren die ontwikkelaars zelf niet meer volledig doorgronden.
Er is overtuigend bewijs dat AI de productiviteit verhoogt, maar we hebben nog onvoldoende zicht op de bredere gevolgen. Zonder zo’n totaalbeeld bestaat het risico dat we vooruitgang boeken op één terrein – bijvoorbeeld efficiëntie – terwijl maatschappelijke of economische effecten op langere termijn buiten beeld blijven. Dat is volgens mij een van de belangrijkste uitdagingen waar software engineering momenteel voor staat.
Welke risico’s ziet u daarbij?
Een risico is dat ontwikkelaars het inzicht verliezen in hoe softwaresystemen worden gemaakt. Beslissingen die vroeger zorgvuldig werden overwogen, kunnen nu zeer snel worden genomen, soms zonder volledige transparantie. Dit leidt tot de opbouw van ‘cognitieve schuld’. Het gevolg is dat begrip wordt uitgesteld en ontwikkelaars niet langer volledig begrijpen waarom bepaalde technische keuzes worden gemaakt.
Dat lijkt in eerste instantie misschien niet cruciaal, maar als software zich onvoorspelbaar gedraagt in gevoelige omgevingen – zoals infrastructuur of de gezondheidszorg – kunnen de gevolgen ernstig zijn. AI is een extreem krachtig instrument, maar we moeten begrijpen hoe we het verantwoord kunnen gebruiken.
Zijn bedrijven zich voldoende bewust van deze risico’s?
Veel bedrijven zien duidelijk de voordelen van AI en beseffen ook dat er risico’s zijn. Maar zonder systematisch onderzoek blijft het lastig om precies vast te stellen waar die risico’s liggen. Organisaties proberen wel waarborgen in te bouwen, maar door het hoge tempo van de ontwikkelingen zijn die niet altijd toereikend. Juist daarom is breed, integraal onderzoek naar de impact van AI zo belangrijk.
Uw onderzoeksvoorstel richt zich op softwareprofessionals met een beperking. Waarom is het belangrijk om juist nu naar deze groep te kijken?
Veel digitale hulpmiddelen worden nog steeds ontwikkeld vanuit een soort one-size-fits-all-benadering. Zelfs zonder de bedoeling om iemand uit te sluiten kan dat nadelig uitpakken voor groepen van wie de behoeften niet zijn meegenomen in de data waarop systemen zijn gebaseerd. Eerder onderzoek laat bijvoorbeeld zien dat bedrijven die software-experts zochten, vooral mannelijke ontwikkelaars selecteerden – niet omdat er geen vrouwen waren, maar omdat de criteria voor expertise aansloten bij typisch mannelijke manieren van werken.
Large Language Models dreigen zulke effecten te versterken. Ze zijn getraind op bestaande data en praktijken, die vooral het gedrag weerspiegelen van meerderheidsgroepen – vaak mannelijke ontwikkelaars zonder beperking. Als we geen rekening houden met verschillende werkstijlen en behoeften, kunnen deze systemen onbedoeld bestaande ongelijkheden reproduceren en versterken in plaats van ze te verminderen. De wereld profiteert enorm van de snelle ontwikkeling van AI. Maar de vraag is of dit voordeel zich in gelijke mate uitstrekt tot alle bevolkingsgroepen. Het is belangrijk dat we iedereen meenemen op deze transformatieve reis.
Hoe gaat u dit onderzoek uitvoeren?
Mijn eerste stap is het analyseren van grootschalige ontwikkelactiviteiten op GitHub, een open-source IT-platform waarop momenteel ongeveer 180 miljoen ontwikkelaars wereldwijd actief zijn. Ik onderzoek hoe programmeerpatronen voor softwareprofessionals met een beperking veranderen vóór en na de introductie van AI-hulpmiddelen. Bijvoorbeeld hoeveel code ontwikkelaars produceren, hoe vaak aanpassingen nodig zijn en hoeveel tijd ontwikkeltaken kosten.
Zo kunnen we meetbare effecten vaststellen. In een latere fase hoop ik deze resultaten aan te vullen met enquêtes of interviews om beter te begrijpen welke ervaringen achter die cijfers schuilgaan.
Welke rol speelt de Langerhuizen Bate in dit project?
Dankzij deze financiering kan ik een onderzoeksassistent aanstellen die helpt bij het analyseren van grote open-sourcedatasets. We zullen ontwikkelaars identificeren die zelf aangeven een beperking te hebben – bijvoorbeeld neurodivergentie, een visuele beperking of een gehoorbeperking – en hun activiteitspatronen vergelijken met die van andere ontwikkelaars.
Als de tijd het toelaat, hopen we ook met een deel van deze ontwikkelaars in gesprek te gaan. Dat kan helpen om beter te begrijpen waarom bepaalde patronen in de data zichtbaar worden en welke vormen van ondersteuning in de praktijk het meest effectief zouden zijn.
AI wordt vaak gepresenteerd als een manier om werk inclusiever te maken. Ziet u vooral kansen, of ook risico’s voor ontwikkelaars met een beperking?
Ik zie beide. AI heeft een enorm potentieel om productiviteit en toegankelijkheid te verbeteren, maar wordt niet vanzelf inclusief. Omdat AI-systemen zijn getraind op bestaand menselijk gedrag, kunnen ze bestaande vooroordelen reproduceren als we daar niet bewust aandacht aan besteden.
Als we willen dat AI inclusie bevordert, moeten we expliciet definiëren wat we daarmee bedoelen en hoe we dat willen bereiken. Anders blijven de voordelen ongelijk verdeeld.
Verwacht u dat AI-bedrijven zulke onderzoeksresultaten serieus nemen?
Dat hoop ik wel. Uit eerder onderzoek naar diversiteit en inclusie, waaronder mijn samenwerking met bedrijven als Microsoft en soortgelijke initiatieven bij Google, blijkt duidelijk dat het bedrijfsleven geïnteresseerd is in deze vraagstukken. Als onderzoekers is het onze verantwoordelijkheid om de juiste vragen te formuleren en bewijs te leveren dat kan helpen bij toekomstige ontwikkelingen.
De uitreiking van de KHMW Langerhuizen Bate 2026 vindt plaats op maandag 29 juni. Klik hier voor het volledige programma van deze feestelijke dag.

