Onderwijs Onderzoek Actueel Over de VU EN
Login als
Studiekiezer Student Medewerker
Bachelor Master VU for Professionals
HOVO Amsterdam VU-NT2 VU Amsterdam Summer School Honoursprogramma Universitaire lerarenopleiding
Promoveren aan de VU Uitgelicht onderzoek Prijzen en onderscheidingen
Onderzoeksinstituten Onze wetenschappers Research Impact Support Portal Impact maken
Nieuws Agenda Vrouwen aan de top
Israël en Palestijnse gebieden Cultuur op de campus
Praktische informatie VU en innovatiedistrict Zuidas Missie en Kernwaarden
Organisatie Samenwerking Alumni Universiteitsbibliotheek Werken bij de VU
Sorry! The information you are looking for is only available in Dutch.
Deze opleiding is opgeslagen in Mijn Studiekeuze.
Er is iets fout gegaan bij het uitvoeren van het verzoek.
Er is iets fout gegaan bij het uitvoeren van het verzoek.

Sofia Gil-Clavel over verantwoord gebruik van AI

Impliciete vooroordelen beïnvloeden onbewust onze waarnemingen en beslissingen in de zorg. Het is een thema dat al eerder centraal stond tijdens het Vrouwen VU-hulp Symposium op 27 maart, maar dat ook van belang is bij opkomende technologieën als Artificial Intelligence (AI).

Sofia Gil-Clavel groeide op in Mexico en studeerde daar actuariële en computerwetenschappen. Haar doctorsgraad behaalde ze bij het Duitse Max Planck Instituut voor Demografisch Onderzoek en de Rijksuniversiteit Groningen. Na een periode als onderzoeker bij de TU Delft is ze nu verbonden aan het Societal Analytics Lab van de VU. 

Large Language Models 

“Als je vroeger echt het naadje van de kous wilde weten ging je naar de bibliotheek, je bestudeerde publicaties of stelde vragen aan mensen in je netwerk die je vertrouwde. In de 21ste eeuw zijn we vrij snel steeds meer gaan vertrouwen op internetzoekmachines als Google. En nu zien we weer een verschuiving, richting het gebruik van zogenaamde Large Language Models zoals ChatGPT,” legt Sofia uit. “Een vorm van artificiële intelligentie die in staat is om ‘human like’ tekst te genereren.” 

De kranten en nieuwssites staan bol van verhalen over de duizelingwekkende ontwikkelingen rondom deze vrij beschikbare AI-tools. Veel mensen zijn zelf ook enthousiast geraakt over de mogelijkheid om razendsnel antwoord te krijgen op de meest uiteenlopende vragen.  

Alleswetend of toch niet? 

Toch waarschuwt Sofia samen met andere wetenschappers over de gevaren van ongebreidelde toepassing van deze technologie: “Het grote publiek denkt al snel dat Large Language Models ‘alleswetend’ zijn, omdat de modellen worden getraind met alle openbaar toegankelijke data op het internet. Een groot deel van deze internetdata is echter afkomstig uit bronnen die niet aan gedegen kwaliteitseisen voldoen, denk hierbij bijvoorbeeld aan sociale mediakanalen. Misschien dat je als bouwer van een AI-tool toegang hebt tot vele terabytes aan data, maar in de praktijk kan het zomaar zijn dat slechts een fractie daarvan echt bruikbaar is. En daarmee is het dus zeker niet vanzelfsprekend dat alle antwoorden die in het scherm van een gebruiker verschijnen volledig accuraat zijn. Terwijl de stellige toonzetting waarin de antwoorden worden geformuleerd door deze tools vaak wel die indruk lijkt te geven.” 

Verantwoord gebruik 

Een veel voorkomend verschijnsel is dat een AI-model wordt getraind met data die betrekking heeft op een bepaalde populatie, en dit model vervolgens zonder voorbehoud wordt ingezet om conclusies te trekken over een heel andere populatie. Sofia: “Stel, iemand ontwikkelt een model om voorspellingen te doen over een bepaalde sociale groep in de Verenigde Staten. Dat wil dan niet automatisch zeggen dat dit instrument ook zomaar toepasbaar is voor deze groep in de Nederlandse situatie.” 

Large Language Models worden niet alleen ingezet door burgers om bijvoorbeeld lekkere recepten te vinden en tips voor mooie vakantie-uitjes, maar ook door beleidsmakers die invloed hebben op de kwaliteit van ons dagelijks leven. “Als in zo’n model een bias zit door de manier waarop het is geprogrammeerd, en gebruikers zich daar niet van bewust zijn, kan dat ernstige gevolgen hebben,” geeft Sofia aan. “Verantwoord gebruik van een AI-tool vraagt niet alleen om goede data om het model te trainen, maar ook om inzicht in wie dit model gaat gebruiken, hoe het model wordt ingezet en wat de mogelijke consequenties zijn.”  

Aandacht in de media 

Sofia en haar collega’s zijn zeker geen roependen in de woestijn als het over dit onderwerp gaat. Zo is er bijvoorbeeld de befaamde documentaire Coded Bias uit 2020, waarin MIT-wetenschapper Joy Buolamwini ontdekte dat een apparaat met kunstmatige intelligentie voor gezichtsherkenning niet adequaat functioneerde bij mensen met een donkere huidskleur. Ook zijn verschillende boeken over de gevaren van verkeerd gebruik van AI-modellen gepubliceerd, zoals ‘Weapons of Math Destruction’ van Cathy O’Neil. Zij werkte lange tijd als wiskundige voor financiële instellingen in New York. “Maar er is nog een lange weg te gaan om het bewustzijn in brede kring te vergroten,” verzucht Sofia.

Een stap in de goede richting 

Met steun van het VUfonds en in samenwerking met andere VU-wetenschappers wil Sofia daarom een instrument ontwikkelen dat medewerkers van overheidsinstellingen in Nederland kan helpen, om meer inzicht te ontwikkelen in de gevaren van Large Language Models. 

In eerste instantie wordt een selecte groep ambtenaren geïnterviewd om meer te leren over hun gebruik van instrumenten als ChatGPT. Sofia: “Het plan is om met de informatie uit de interviews een gespecialiseerd bordspel te ontwikkelen. De deelnemers kunnen vervolgens aan de slag met dit bordspel, waarna we analyseren welke effecten dit heeft op hun inzicht in toepassing van AI-tools binnen de werksituatie. En als het bordspel aanslaat, kunnen we de inzet ervan natuurlijk verder verspreiden. Zo dragen we op een concrete en meetbare manier bij aan meer bewustzijn in de toepassing van Large Language Models in professionele situaties.”  

Terug naar vorige pagina 

Direct naar

Homepage Cultuur op de campus Sportcentrum VU Dashboard

Studie

Academische jaarkalender Studiegids Rooster Canvas

Uitgelicht

Doneer aan het VUfonds VU Magazine Ad Valvas Digitale toegankelijkheid

Over de VU

Contact en route Werken bij de VU Faculteiten Diensten
Privacy Disclaimer Veiligheid Webcolofon Cookies Webarchief

Copyright © 2025 - Vrije Universiteit Amsterdam