Onderwijs Onderzoek Actueel Over de VU EN
Login als
Studiekiezer Student Medewerker
Bachelor Master VU for Professionals
HOVO Amsterdam VU-NT2 VU Amsterdam Summer School Honoursprogramma Universitaire lerarenopleiding
Promoveren aan de VU Uitgelicht onderzoek Prijzen en onderscheidingen
Onderzoeksinstituten Onze wetenschappers Research Impact Support Portal Impact maken
Nieuws Agenda Biodiversiteit aan de VU
Israël en Palestijnse gebieden Cultuur op de campus
Praktische informatie VU en innovatiedistrict Zuidas Missie en Kernwaarden
Besturing Samenwerking Alumni Universiteitsbibliotheek Werken bij de VU
Sorry! The information you are looking for is only available in Dutch.
Deze opleiding is opgeslagen in Mijn Studiekeuze.
Er is iets fout gegaan bij het uitvoeren van het verzoek.
Er is iets fout gegaan bij het uitvoeren van het verzoek.

Felienne Hermans over de valse neutraliteit van AI

Impliciete vooroordelen beïnvloeden onbewust onze waarnemingen en beslissingen in de zorg. Het is een thema dat al eerder centraal stond tijdens het Vrouwen VU-hulp Symposium op 27 maart, maar dat ook van belang is bij opkomende technologieën als Artificial Intelligence (AI).

Zo neutraal als techbedrijven AI presenteren, is deze nieuwe technologie namelijk niet. Gelukkig zijn er bij de VU wetenschappers zoals Felienne Hermans die ons bewust maken van deze schaduwkanten.

Felienne Hermans houdt zich als hoogleraar Computer Science Education bezig met zowel de technologische kant van AI als met de ethische aspecten ervan. Relevanter dan dit kan haar werk niet worden, nu bedrijven als OpenAI, het bedrijf achter ChatGPT, de ambitie loslaten dat hun taalmodellen ‘politiek onbevooroordeeld’ moeten zijn. 

Hoe heeft dit impact op ons, als alledaagse gebruiker? Hermans geeft hiervan een interessant voorbeeld. Stel dat je in een zoekmachine een vraag opzoekt als: is de arbeidsparticipatie van vrouwen hoog? Een jaar of vijf geleden kwam je dan terecht op verschillende websites of bij krantenartikelen, ieder met een eigen invalshoek op deze vraag. ‘Ja, hoger dan ooit’, zegt de historische blik. ‘Nee, omdat kinderopvang duur is’, zegt de economische blik. Dit zijn allebei valide antwoorden, allebei vanuit een ander perspectief. Geen enkel perspectief is volledig neutraal en zelfs binnen een perspectief kan men van mening verschillen. 

Heel anders is het antwoord dat je nu krijgt van AI-systemen als ChatGPT en Copilot. Zij geven je een pasklaar antwoord. “Dit klinkt misschien triviaal”, zegt Hermans, “maar het resultaat zorgt wel voor een valse neutraliteit.” De context van het antwoord dat je krijgt ontbreekt namelijk, waardoor het antwoord gepresenteerd wordt als ‘feit’. Maar juist omdat AI een keuze maakt, is deze technologie verre van neutraal en ontneemt het de gebruiker de kans om een eigen oordeel te vellen op basis van die diversiteit aan invalshoeken. De invalshoeken die je vijf jaar geleden nog wel te zien kreeg. 

Dit betekent dat de rol van de VU en wetenschappers als Felienne Hermans nóg belangrijker wordt. Zij kunnen bewustzijn creëren over het gevaar van gesimplificeerde waarheden, maar ook inzetten op de kansen die deze nieuwe technologie biedt. AI op een verantwoorde manier de maatschappij inbrengen, vraagt namelijk om een kritische blik vanuit meerdere invalshoeken. 

Als VUfonds steunen we graag onderzoek naar het verantwoord inzetten van AI om maatschappelijke problemen op te lossen. Juist de VU speelt een belangrijke rol in het samenbrengen van mensen, organisaties en onderzoek. Daarbij is een verantwoorde inzet van nieuwe technologieën onmisbaar. 

Lees hier hoe jij met het VUfonds verantwoord AI-onderzoek kunt steunen! 

Terug naar vorige pagina 

Doneer aan verantwoord AI-gebruik

En help beleidsmakers de controle terug te pakken!

Direct naar

Homepage Cultuur op de campus Sportcentrum VU Dashboard

Studie

Academische jaarkalender Studiegids Rooster Canvas

Uitgelicht

Doneer aan het VUfonds VU Magazine Ad Valvas Digitale toegankelijkheid

Over de VU

Contact en route Werken bij de VU Faculteiten Diensten
Privacy Disclaimer Veiligheid Webcolofon Cookie instellingen Webarchief

Copyright © 2025 - Vrije Universiteit Amsterdam