Onderwijs Onderzoek Actueel Over de VU EN
Login als
Studiekiezer Student Medewerker
Bachelor Master VU for Professionals
HOVO Amsterdam VU-NT2 VU Amsterdam Summer School Honoursprogramma Universitaire lerarenopleiding
Promoveren aan de VU Uitgelicht onderzoek Prijzen en onderscheidingen
Onderzoeksinstituten Onze wetenschappers Research Impact Support Portal Impact maken
Nieuws Agenda Vrouwen aan de top
Israël en Palestijnse gebieden Cultuur op de campus
Praktische informatie VU en innovatiedistrict Zuidas Missie en Kernwaarden
Organisatie Samenwerking Alumni Universiteitsbibliotheek Werken bij de VU
Sorry! The information you are looking for is only available in Dutch.
Deze opleiding is opgeslagen in Mijn Studiekeuze.
Er is iets fout gegaan bij het uitvoeren van het verzoek.
Er is iets fout gegaan bij het uitvoeren van het verzoek.

Verantwoord AI-gebruik bij overheidsinstanties

Artificial Intelligence speelt een steeds grotere rol in onze samenleving. Ook beleidsmakers krijgen vaker te maken met AI-systemen en grote hoeveelheden data. Maar hoe zorg je ervoor dat je deze technologie op een eerlijke en verantwoorde manier wordt ingezet? Jij kunt daarbij helpen.

AI is niet neutraal 

AI wordt soms gezien als een slimme technologie die objectieve antwoorden geeft op basis van data. Dat beeld klopt niet, want AI is onbedoeld niet neutraal. De systemen zijn getraind op een beperkte selectie data, meestal gebaseerd op Westerse bronnen. Dat betekent dat bepaalde perspectieven en ervaringen worden uitgesloten, wat leidt tot blinde vlekken in de uitkomsten.  

Daarnaast worden AI-toepassingen vaak ontworpen door een homogene groep ontwikkelaars. Onbedoelde vooroordelen, normen en aannames kunnen zo ongemerkt de technologie beïnvloeden. Dat is geen kwade opzet, maar heeft wel gevolgen. Het is belangrijk om daarvan bewust te zijn wanneer overheidsbeleid afhankelijk wordt van zulke systemen.

De gevolgen kunnen ingrijpend zijn 

Het is voor gebruikers, zoals beleidsmakers, lastig om de uitkomsten te controleren, of te doorgronden, omdat AI-systemen weinig inzicht geven in hoe een antwoord precies tot stand komt. Dit zorgt ervoor dat onbewuste vooroordelen versterkt worden. Deze systemen verergeren hierdoor ongemerkt sociale en structurele ongelijkheden, zonder dat iemand het doorheeft. Juist daarom is het belangrijk dat beleidsmakers kunnen vertrouwen op hun eigen menselijke blik, zonder in hun keuzes afhankelijk te zijn van aannames en vooroordelen van technologie. 

Dat het mis kan gaan wanneer technologie leidend wordt zonder kritisch inzicht, bleek pijnlijk in de toeslagenaffaire. De belastingdienst vertrouwde te veel op gebrekkige data en geautomatiseerde besluitvorming. Duizenden mensen werden daardoor onterecht beschuldigd van fraude en verloren hun inkomen, woning of zelfs kinderen.  

Onderzoek voor verantwoord AI-gebruik 

Een goed begrip van AI en grote datasets is dus van cruciaal belang voor verantwoord AI-gebruik. Daarom streven onderzoekers Sofia Gil-Clavel (VU) en Tim Groot Kormelink (VU) ernaar om met overheidsinstanties samen te werken aan een belangrijk onderzoeksproject. 

Zij bestuderen hoe verschillende type beleidsmakers omgaan met AI in hun dagelijkse werk. In welke situaties gebruiken ze het? In welke juist niet? En hoe wegen ze de uitkomsten? Op basis van deze inzichten ontwikkelen ze een trainingsmodule waarmee beleidsmakers kunnen leren AI op een verantwoorde en kritische manier te gebruiken. De module zal toepasbaar worden binnen verschillende overheidsorganisaties.

Jouw donatie maakt het verschil! 

Om dit onderzoek en de training mogelijk te maken, is jouw steun nodig. Het opzetten van deze samenwerking, het uitvoeren van interviews, de analyse van de bevindingen en het ontwikkelen van de module kost tijd en geld.  

Met jouw bijdrage geef je beleidsmakers de kennis en vaardigheden om technologie kritisch te benaderen en in te zetten voor de mensen die het raakt. Zo verkleinen we de kans dat onzichtbare vooroordelen ons beleid en de samenleving beïnvloeden. Wanneer beleidsmakers begrijpen hoe AI en grote datasets werken, kunnen ze de mogelijkheden en risico’s beter inschatten en daarmee weloverwogen beleidskeuzes maken.  

Je helpt voorkomen dat AI een ‘black box’ blijft en zorgt ervoor dat beleid wordt gemaakt door mensen, met menselijke waarden.  

Steun verantwoord AI-gebruik. Doneer aan het VUfonds.    

Veel gestelde vragen over AI en Alzheimer

  • Wie zitten er achter dit onderzoek?

    Sofia Gil Clavel is de projectleider. Als actuariële- en computerwetenschapper heeft ze ruime ervaring met het analyseren van grote datasets. Ze werkte eerder met gegevens van onder andere SCOPUS, Facebook en Twitter. Haar onderzoeken richten zich op maatschappelijke thema’s, zoals klimaatadaptatie, technologiegebruik door ouderen en culturele integratie van migranten.  

    Tim Groot Kormelink is als Assistant Professor Journalism Studies aan de Vrije Universiteit Amsterdam. Hij is gespecialiseerd in het doen en analyseren van kwalitatieve interviews en brengt die expertise in binnen dit project. 

  • Wat verstaan we precies onder AI?

    Bij de term ‘Artificial Intelligence’ denken we vaak aan systemen die teksten of afbeeldingen genereren, zoals ChatGPT. Maar AI is veel breder dan dat. Het is een verzamelterm voor systemen die patronen herkennen in data en daar op basis van algoritmes beslissingen of voorspellingen mee doen. Als zo’n systeem daarna nieuwe data krijgt, vergelijkt het die met wat het al kent en op basis daarvan volgt een uitkomst

  • Op welke vorm van AI richt dit onderzoek zich?

    Dit onderzoek richt zich specifiek op Large Language Models (LLM’s), zoals ChatGPT en Copilot. Dat zijn vormen van generatieve AI: systemen die zelf teksten genereren op basis van een ingevoerde vraag of opdracht (prompt). Deze modellen zijn getraind op grote verzamelingen data. Op basis van die data kunnen ze antwoorden formuleren. 

  • Hoe inclusief is de data die gebruikt wordt?

    Diversiteit is belangrijk in geneticaonderzoek en dus ook voor dit model. Hoe gevarieerder de data, hoe betrouwbaarder het model. Er wordt rekening gehouden met de verschillen tussen patiënten en niet-patiënten, maar ook met die tussen mannen en vrouwen.  

Lees meer over ...

Direct naar

Homepage Cultuur op de campus Sportcentrum VU Dashboard

Studie

Academische jaarkalender Studiegids Rooster Canvas

Uitgelicht

Doneer aan het VUfonds VU Magazine Ad Valvas Digitale toegankelijkheid

Over de VU

Contact en route Werken bij de VU Faculteiten Diensten
Privacy Disclaimer Veiligheid Webcolofon Cookies Webarchief

Copyright © 2025 - Vrije Universiteit Amsterdam