Onderwijs Onderzoek Actueel Over de VU EN
Login als
Studiekiezer Student Medewerker
Bachelor Master VU for Professionals
HOVO Amsterdam VU-NT2 VU Amsterdam Summer School Honoursprogramma Universitaire lerarenopleiding
Promoveren aan de VU Uitgelicht onderzoek Prijzen en onderscheidingen
Onderzoeksinstituten Onze wetenschappers Research Impact Support Portal Impact maken
Nieuws Agenda Gezond leven aan de VU
Israël en Palestijnse gebieden Cultuur op de campus
Praktische informatie VU en innovatiedistrict Zuidas Missie en Kernwaarden
Besturing Samenwerken met ons Alumni Universiteitsbibliotheek Werken bij de VU
Sorry! The information you are looking for is only available in Dutch.
Deze opleiding is opgeslagen in Mijn Studiekeuze.
Er is iets fout gegaan bij het uitvoeren van het verzoek.
Er is iets fout gegaan bij het uitvoeren van het verzoek.

Kijkend in de spiegel van het algoritme

Delen
24 maart 2025
Dat nieuwe technologieën niet neutraal zijn werd duidelijk tijdens het jaarlijkse symposium waarmee de organisatie Vrouwen VU-hulp werd geëerd. Moeten we ze daarom maar niet gebruiken? Of is het juist de plicht van onderwijsinstellingen zoals de VU om studenten en docenten AI-geletterdheid aan te leren?

Tekst: Shirley Haasnoot  |  Foto's: Yvonne Compier

Hoe ziet een groep artsen eruit? Sandjai Bhulai, hoogleraar Business Analytics aan de Vrije Universiteit Amsterdam, vroeg Artificial Intelligence-software een portret te maken. Op een groot scherm toont hij een afbeelding van drie witte mannen van middelbare leeftijd, gekleed in blauwe operatiekleding, compleet met mutsjes. En bestuursvoorzitters? Opnieuw zien we drie witte mannen, dit keer gekleed in pak met stropdas en een lichte stoppelbaard. Ze hebben hun borst vooruitgestoken. 

‘Tech kijkt niet neutraal’ is de naam van het Vrouwen VU-hulp symposium, dat op 19 maart voor de vierde keer wordt georganiseerd. Het onderwerp blijkt een snaar te raken. Ruim 200 bezoekers zitten op deze zonnige lentemiddag in het Auditorium van het hoofdgebouw. En waar het jaarlijkse symposium traditioneel gezien vooral veel vrouwen trok, zijn vandaag ook mannen in groten getale komen opdagen.

Een algoritme is een set van regels en instructies die een computer uitvoert, gebaseerd op data. Zo’n algoritme kan op verschillende manieren en met verschillende soorten data gevormd worden. In het geval van de getoonde plaatjes zijn de data van het web gescraped. ‘Er wordt wel gezegd dat algoritmes ervoor zorgen dat we objectiever kijken’, zegt Bhulai, die de hoofdspreker op het symposium is. ‘Maar is dat wel zo?’

Hij laat een derde door AI gegenereerd portret zien, nu van financieel adviseurs. Daar staan maar liefst tien mannen met stropdas op. De enige vrouwelijke adviseur heeft blote armen en blond golvend haar.

‘Zuurstofmetingen worden meestal uitgevoerd op een witte huid’

Bhulai is wiskundige en helpt bedrijven om met data betere beslissingen te nemen, vertelt hij. ‘Normaal gesproken praat ik erg positief over AI. Maar goed, ik wil ook de gevaren laten zien.’ In rap tempo komt hij met voorbeelden. Hoe bij studies naar pijnherkenning het algoritme wordt gevormd door oude data, uit een tijd waarin pijn bij vrouwen minder serieus werd genomen. Dat leidt ertoe dat vrouwen soms minder pijnstilling krijgen dan ze nodig hebben. Een ander voorbeeld: zuurstofmetingen worden meestal uitgevoerd op een witte huid. Dat leidt tot data die niet gelden voor mensen met een donkere huid.

‘Die algoritmes houden ons eigenlijk een soort spiegel voor’, zegt Bhulai. ‘Ze laten ons zien hoe de maatschappij in elkaar steekt.’ Hij vertelt dat studies laten zien dat vrouwen minder online tech-advertenties te zien krijgen. En dat als tech-applicaties bepalen wie er recht heeft op salarisverhoging of promotie, vrouwen veel minder goed scoren dan mannen. ‘Dat komt niet omdat er een fundamentele fout in het algoritme zit. Het vooroordeel zit in de data die we gebruiken om een algoritme vorm te geven.’ 

Met een lied bezingt muzikaal cabaretduo Maartje & Kine vervolgens de dromen van basisschoolleerlingen Jonathan en Fleur. Het gaat over oude vooroordelen maar ook over hoop voor de toekomst van de jongste generatie. Jonathan wil later directeur worden en met zijn secretaresse trouwen, terwijl hij eerst nog astronaut wordt. Maar Fleur ziet ander, minder traditioneel leven voor zich, als bio-informaticus in de moleculaire diagnostiek. En in plaats van een man neemt ze een hond. 

‘Ik vond dit erg grappig’, zegt moderator Miranda van Holland, die aan de VU werkt voor dialooghuis 3D en programmateam NewConnective. ‘Jullie zijn zo’n serieus publiek, lieve mensen!’

Als de samenleving seksisme en racisme niet kritisch bevraagt, kan dit leiden tot geweld tegen vrouwen

In een rondetafelgesprek spreekt Van Holland vervolgens met drie wetenschappers die aan de VU verbonden zijn. Zij vertellen hoe zij in de praktijk concreet zien dat technologie niet neutraal is en hoe we moeten omgaan met de gevolgen daarvan.

Universitair docent Internetrecht Anne de Hingh waarschuwt nog wat explicieter dan Bhulai voor het seksisme en racisme dat in veel algoritmes zit ingebakken. Ook zij toont een duidelijk door AI-gegenereerd plaatje, dit keer van een vrouw. We zien haar niet als arts of manager, maar als witte moeder: stralend, jong, sexy en vruchtbaar, met stoeiende kinderen op de achtergrond. Maar als de samenleving seksisme en racisme niet kritisch benoemt en bevraagt, zegt De Hingh, kan dit leiden tot geweld tegen vrouwen en in het uiterste geval femicide. 

Een saillant detail: het getoonde plaatje is van 2024, vier dagen voor de Europees Parlementsverkiezingen, en heeft als hashtag: #StemPVV.

Bestuurswetenschapper en organisatie-antropoloog Marilieke Engbers wijst erop dat de gemiddelde leeftijd van de mensen in de boardrooom, bestuurders en ook toezichthouders, rond de 62 ligt. Ze denkt dat die leeftijdsgroep wat de techmogelijkheden betreft veel minder kennis en ervaring heeft dan jongere mensen. ‘En dat terwijl je wel moet meedoen om te snappen hoe dit ons allemaal raakt.’ 

‘Als je onze studenten aanmoedigt om AI te gebruiken, kunnen ze straks niet meer lezen, schrijven of samenvatten’

We moeten AI niet alleen snappen, maar ook zelf gebruiken, om te ervaren wat het betekent, zegt onderwijsonderzoeker Theo Bakker. Zelf zet hij deze technologie in om teksten beter leesbaar te maken, lesmateriaal te ontwikkelen en om blinde vlekken in onderzoek op te sporen. Bijvoorbeeld door AI te vragen: welke vragen moet ik stellen om dit onderwerp goed te begrijpen? Of: Wat staat er niet in dit rapport? Bakker: ‘Zo zet je het in om kritischer na te denken.’

Van die voordelen is De Hingh niet overtuigd. ‘Wij juristen zien natuurlijk geen kansen maar bedreigingen, dat is ons vak.’ Tegen haar studenten wil ze dan ook zeggen: ‘Gebruik het zo min mogelijk, gebruik je hoofd.’ Ze heeft grote problemen met cognitive offloading, waarbij mensen hun denken uitbesteden aan een apparaat of een machine. ‘Want als je onze studenten aanmoedigt om AI te gebruiken, kunnen ze straks niet meer lezen, schrijven of samenvatten. Want dat besteden ze allemaal uit. Ik vind dat heel problematisch. Dat wilde ik even gezegd hebben.’

Daar is Bakker het helemaal niet mee eens. ‘Juist hier, waar we mensen opleiden, moeten we ze leren om goed met technologie om te gaan. Dat is onze plicht als onderwijsinstelling, om AI-geletterdheid aan te leren. Dat geldt niet alleen voor studenten maar ook voor docenten. Want het blijft, en het wordt alleen maar belangrijker.’


Ook zo genoten van het intermezzo van Maartje en Kine tijdens het symposium? Binnenkort treden zij op in De Kleine Komedie. Bekijk hun speellijst.

Lees meer over het thema

De VUvereniging geeft geld aan projecten aan de VU en het Amsterdam UMC, op het snijvlak van wetenschap, onderwijs, zingeving en maatschappij. Met de steun aan het jaarlijkse Vrouwen VU-hulp symposium houdt de VUvereniging de enorme inzet en bijdrage van de vrouwen aan de VU in ere.

Foto's Tech kijkt niet neutraal

Foto's Tech kijkt niet neutraal

Nog even nagenieten? Bekijk hier de foto's van het symposium.

Bekijk de foto's
Sandjai Bhulai bij het symposium Tech kijkt niet neutraal

Direct naar

Homepage Cultuur op de campus Sportcentrum VU Dashboard

Studie

Academische jaarkalender Studiegids Rooster Canvas

Uitgelicht

Doneer aan het VUfonds VU Magazine Ad Valvas Digitale toegankelijkheid

Over de VU

Contact en route Werken bij de VU Faculteiten Diensten
Privacy Disclaimer Veiligheid Webcolofon Cookie instellingen Webarchief

Copyright © 2026 - Vrije Universiteit Amsterdam