AI is niet neutraal
AI wordt soms gezien als een slimme technologie die objectieve antwoorden geeft op basis van data. Dat beeld klopt niet, want AI is onbedoeld niet neutraal. De systemen zijn getraind op een beperkte selectie data, meestal gebaseerd op Westerse bronnen. Dat betekent dat bepaalde perspectieven en ervaringen worden uitgesloten, wat leidt tot blinde vlekken in de uitkomsten.
Daarnaast worden AI-toepassingen vaak ontworpen door een homogene groep ontwikkelaars. Onbedoelde vooroordelen, normen en aannames kunnen zo ongemerkt de technologie beïnvloeden. Dat is geen kwade opzet, maar heeft wel gevolgen. Het is belangrijk om daarvan bewust te zijn wanneer overheidsbeleid afhankelijk wordt van zulke systemen.
De gevolgen kunnen ingrijpend zijn
Het is voor gebruikers, zoals beleidsmakers, lastig om de uitkomsten te controleren, of te doorgronden, omdat AI-systemen weinig inzicht geven in hoe een antwoord precies tot stand komt. Dit zorgt ervoor dat onbewuste vooroordelen versterkt worden. Deze systemen verergeren hierdoor ongemerkt sociale en structurele ongelijkheden, zonder dat iemand het doorheeft. Juist daarom is het belangrijk dat beleidsmakers kunnen vertrouwen op hun eigen menselijke blik, zonder in hun keuzes afhankelijk te zijn van aannames en vooroordelen van technologie.
Dat het mis kan gaan wanneer technologie leidend wordt zonder kritisch inzicht, bleek pijnlijk in de toeslagenaffaire. De belastingdienst vertrouwde te veel op gebrekkige data en geautomatiseerde besluitvorming. Duizenden mensen werden daardoor onterecht beschuldigd van fraude en verloren hun inkomen, woning of zelfs kinderen.
Onderzoek voor verantwoord AI-gebruik
Een goed begrip van AI en grote datasets is dus van cruciaal belang voor verantwoord AI-gebruik. Daarom streven onderzoekers Sofia Gil-Clavel (VU) en Tim Groot Kormelink (VU) ernaar om met overheidsinstanties samen te werken aan een belangrijk onderzoeksproject.
Zij bestuderen hoe verschillende type beleidsmakers omgaan met AI in hun dagelijkse werk. In welke situaties gebruiken ze het? In welke juist niet? En hoe wegen ze de uitkomsten? Op basis van deze inzichten ontwikkelen ze een trainingsmodule waarmee beleidsmakers kunnen leren AI op een verantwoorde en kritische manier te gebruiken. De module zal toepasbaar worden binnen verschillende overheidsorganisaties.