Onderwijs Onderzoek Actueel Over de VU EN
Login als
Studiekiezer Student Medewerker
Bachelor Master VU for Professionals
HOVO Amsterdam VU-NT2 VU Amsterdam Summer School Honoursprogramma Universitaire lerarenopleiding
Promoveren aan de VU Uitgelicht onderzoek Prijzen en onderscheidingen
Onderzoeksinstituten Onze wetenschappers Research Impact Support Portal Impact maken
Nieuws Agenda Vrouwen aan de top
Israël en Palestijnse gebieden Cultuur op de campus
Praktische informatie VU en innovatiedistrict Zuidas Missie en Kernwaarden
Organisatie Samenwerking Alumni Universiteitsbibliotheek Werken bij de VU
Sorry! The information you are looking for is only available in Dutch.
Deze opleiding is opgeslagen in Mijn Studiekeuze.
Er is iets fout gegaan bij het uitvoeren van het verzoek.
Er is iets fout gegaan bij het uitvoeren van het verzoek.

De kansen en gevaren van kunstmatige intelligentie

De ontwikkelingen op het gebied van kunstmatige intelligentie gaan razendsnel. Dat biedt kansen, maar ook gevaren. Hoe kunnen organisaties de kansen van kunstmatige intelligentie benutten, zonder zichzelf, hun klanten of de samenleving in gevaar te brengen? Onderzoekers van onze faculteit geven vanuit hun eigen expertise raad.

Generatieve kunstmatige intelligentie
In november 2022 maakte het brede publiek kennis met ChatGPT, en binnen 2 maanden maakten al 100 miljoen gebruikers wereldwijd gebruik van deze moderne chatbot. Sindsdien zijn er nog geavanceerdere taalmodellen online gekomen en kunnen ook afbeeldingen en video’s met kunstmatige intelligentie worden gegenereerd.

Volgens Frans Feldberg, hoogleraar Data Driven Business Innovation, moeten we niet naïef zijn: kunstmatige intelligentie is een systeemtechnologie die in potentie de relaties tussen individuen, organisaties en overheden fundamenteel kan veranderen. Een technologie waarvan de invloed te vergelijken is met de introductie van elektriciteit. Hij is medeoprichter van het Data Science Alkmaar, een “platform voor innovatie waar bedrijfsleven, publieke sector en onderwijs/onderzoek uit Noord-Holland samenwerken om de kansen die big data en kunstmatige intelligentie bieden op een verantwoorde wijze te benutten, ten behoeve van regionale economische groei en ontwikkeling”. Via dat platform kunnen organisaties colleges en workshops bijwonen over digitale innovaties zoals kunstmatige intelligentie. Op een college over ChatGPT in juni in het AFAS stadion in Alkmaar kwamen ruim 500 personen af.

“Grote techbedrijven en startups ontwikkelen datagedreven producten en diensten, onder andere gebruikmakend van kunstmatige intelligentie, die de bijl aan de wortel leggen van het bedrijfsmodel van veel organisaties. Ik raad organisaties daarom aan om niet naïef te zijn, niet te hopen dat het een trend is die vanzelf overwaait en hen niet treft,” adviseert Feldberg. “Ga met deze nieuwe technologieën aan de slag. Onderzoek wat het voor je organisatie en je bestaansrecht betekent. En grijp de kansen die data en kunstmatige intelligentie bieden, maar wel op een verantwoorde wijze.”

Medische AI
Ook in de medische wereld biedt kunstmatige intelligentie veel kansen, bijvoorbeeld om sneller en nauwkeuriger patiënten te diagnosticeren. Maar om die kansen te benutten zullen zorgorganisaties wel veranderingen moeten aanbrengen in de zorgprocessen, weet organisatiewetenschapper Mohammad Rezazade Mehrizi.

De afgelopen vijf jaar is hij bezig geweest met onderzoek naar het gebruik van kunstmatige intelligentie in de radiologie. “Als kunstmatige intelligentie wordt gebruikt bij diagnoses, veranderen de inhoud en de volgorde van de handelingen die artsen moeten uitvoeren. Daar moet het ziekenhuis op worden ingericht. Daarnaast is het belangrijk dat organisaties weten hoe ze bij medewerkers voldoende, maar niet te veel, vertrouwen in kunstmatige intelligentie kunnen kweken,” zegt Rezazade Mehrizi.

Een deel van het onderzoek werd onlangs gepubliceerd in Nature Scientific Report. “In een experiment lieten we radiologen een mix van correcte en incorrecte suggesties van een algoritme zien. In de helft van de gevallen gaven we de radiologen expres een incorrecte suggestie. Wat bleek is dat de radiologen ongeveer even vaak de correcte als de incorrecte suggesties volgden. Ze hadden dus te veel vertrouwen in het algoritme.”

De onderzoekers keken ook naar twee mogelijke manieren om het vertrouwen te reguleren: het aanbieden van extra informatie bij de suggestie van het algoritme en radiologen eraan herinneren dat ze kritisch moeten zijn op kunstmatige intelligentie.

“We verdeelden de radiologen in het experiment willekeurig in verschillende groepen. Sommige groepen kregen meer informatie dan andere. Ook kregen sommige groepen een positieve video over kunstmatige intelligentie te zien, en andere juist een video waarin de gevaren werden belicht.”

Uit het experiment bleek dat beide methoden geen significant effect hadden op het vertrouwen van de radiologen. Alle groepen volgden ongeveer even vaak de incorrecte suggesties op. Rezazade Mehrizi en zijn collega’s blijven daarom onderzoek doen naar welke methoden wél werken om het vertrouwen te temperen.

Ook brengt Rezazade Mehrizi medische experts, ontwikkelaars van nieuwe technologie en organisatiewetenschappers samen in een Learning Lab. Deze samenwerking tussen de VU School of Business and Economics en het Leids Universitair Medisch Centrum maakt het mogelijk om in een veilige omgeving te experimenteren met nieuwe technologieën, wat veel nuttige inzichten oplevert. Rezazade Mehrizi: “Als organisatiewetenschappers denken wij mee over hoe die nieuwe technologieën het beste kunnen worden geïmplementeerd in organisaties.”

Ethische vraagstukken
Het is voor organisaties aanlokkelijk om algoritmes los te laten op grote hoeveelheden data en zo bijvoorbeeld beter zicht te krijgen op wat klanten willen of hoe bedrijfsprocessen efficiënter kunnen worden ingericht. Maar die algoritmes zijn, volgens organisatiewetenschapper Christine Moser, ongeschikt om morele, ethische en sociale vraagstukken aan te pakken.

Organisaties mogen volgens Moser best gebruik maken van algoritmes, maar moeten er niet blind op vertrouwen. Toch doen ze dat volgens haar te vaak. In haar onderzoek vindt ze daar drie belangrijke oorzaken voor. Moser: “Om te beginnen is het voor organisaties makkelijk om dingen in getallen uit te drukken, in het kader van ‘meten is weten’. Algoritmes lijken dan een goede oplossing, want die kunnen goed met getallen overweg. Maar niet alles is uit te drukken in getallen. Een vraag zoals ‘Op een schaal van 1 tot 10, hoe voelt angst?’ dekt duidelijk niet de lading. Sommige dingen kun je niet meten.”

“Verder maakt het een algoritme niet uit in welk land het wordt gebruikt, algoritmes zijn ‘agnostisch’ voor cultuur. Voor organisaties is het dan gemakkelijk om overal hetzelfde algoritme uit te rollen. Maar voor mensen maakt de omgeving wél uit,” vervolgt Moser.

Een derde verklaring voor blind vertrouwen is dat de resultaten van algoritmes, bijvoorbeeld scores of percentages, machtig en overtuigend zijn. Moser: “Misschien klinkt dit wat vreemd, want wij mensen denken vaak dat wij de baas zijn over technologie. Maar wanneer we worden geconfronteerd met de uitkomst van zo’n geavanceerd rekenmodel, is het heel moeilijk om níet mee te gaan in de logica van het getal.”

De ontwikkelingen op het gebied van kunstmatige intelligentie lijken niet meer te stoppen, maar organisaties hebben volgens Moser de plicht om verantwoord om te gaan met deze nieuwe technologie. “Voor het aanpakken van morele, ethische, en sociale vraagstukken zijn algoritmes ongeschikt,”

Direct naar

Homepage Cultuur op de campus Sportcentrum VU Dashboard

Studie

Academische jaarkalender Studiegids Rooster Canvas

Uitgelicht

Doneer aan het VUfonds VU Magazine Ad Valvas Digitale toegankelijkheid

Over de VU

Contact en route Werken bij de VU Faculteiten Diensten
Privacy Disclaimer Veiligheid Webcolofon Cookies Webarchief

Copyright © 2025 - Vrije Universiteit Amsterdam