Om grip te houden op de uitdagingen en de scope te verduidelijken, richt de taskforce zich in eerste instantie op het onderwijs. Hieronder valt dus bijvoorbeeld niet AI in bedrijfsvoering en onderzoek. De taskforce wordt ondersteund door een VU-werkgroep en een UvA-werkgroep AI in onderwijs.
Wetenschappelijke integriteit
Universiteiten leiden mensen op tot kritische denkers die in de maatschappij in brede zin zullen gaan functioneren. In die maatschappij is AI niet meer weg te denken. Universiteiten hechten veel waarde aan integriteit en de ethische aspecten van wetenschappelijk onderzoek. Dit betekent onder andere dat universiteiten in de opleidingen voor studenten en onderzoekers systematisch aandacht besteden aan de correcte manier van onderzoek doen.
Eén van de pijlers van wetenschappelijke integriteit is transparantie. Transparantie is bij uitstek het sleutelwoord voor het gebruik van (generatieve) AI in onderwijs. Hieronder wordt per doelgroep het uitgangspunt van de taskforce kort toegelicht.
VU-UvA taskforce AI in onderwijs
Uitgangspunten VU-UvA taskforce AI in onderwijs
-
Transparant naar de buitenwereld
Het uitgangspunt is dat de VU en de UvA helder beleid en standpunten communiceren ten aanzien van generatieve AI in het onderwijs, zowel intern als extern. Het beleid en de standpunten bewegen mee met de ontwikkelingen en worden regelmatig en tijdig gecommuniceerd en gepubliceerd, op een plek die vindbaar is voor iedereen betrokken bij het onderwijs (en onderzoek) van de instellingen, maar ook daarbuiten.
-
Transparant beleid voor de organisatie
Vanuit de organisatie is er behoefte aan helder beleid. Het beleid is niet statisch, omdat de ontwikkelingen in AI enorm snel gaan. De taskforce adviseert beide instellingen op het aanpassen en aanscherpen van het beleid, door de bewegingsruimte gezien de meest recente ontwikkelingen te duiden. Op basis van het beleid adviseert de taskforce de instellingen over een aantal gebruiksprincipes.
-
Transparant over de verwachtingen aan studenten, en transparantie van studenten over hun gebruik van generatieve AI
Van studenten verwachten de instellingen transparantie over de toepassing van generatieve AI in het eigen leerproces en het eigen werk. Ook voor studenten gelden de principes van wetenschappelijke integriteit en wordt van hen verwacht dat ze verantwoordelijkheid nemen voor het eigen leerproces en het eigen werk en daar transparant over zijn. Hiervoor is het van belang dat studenten leren wat de mogelijkheden en beperkingen zijn van het gebruik van generatieve AI in werk, wetenschap en de maatschappij. Daarnaast leren studenten transparant te zijn over wanneer en hoe zij generatieve AI gebruiken. Regels en richtlijnen worden zo opgesteld dat deze transparantie wordt aangemoedigd.
-
Transparantie van softwareleveranciers
Wetenschappelijke instellingen als de VU en de UvA moeten het belang van transparantie blijven benadrukken en druk blijven uitoefenen om softwareleveranciers te bewegen meer transparantie te bieden. Het uitgangspunt is een set criteria, opgeleverd door de taskforce, waaraan software zou moeten voldoen om de wetenschappelijke integriteit te borgen. Bovendien zou de ecologische voetafdruk van het bouwen en gebruiken van de modellen expliciet gemaakt moeten worden voor gebruikers.
-
Samenstelling van de taskforce
De taskforce bestaat uit acht experts. In de taskforce zijn experts vanuit verschillende domeinen vertegenwoordigd.
Vanuit de VU nemen deel:
dr. Peter Bloem (BETA) – Kunstmatige Intelligentie
dr. Ilja Cornelisz (FGB) – Onderwijswetenschappen
prof. dr. ir. Felienne Hermans (BETA) – Informatica
prof. dr. Piek Vossen (FGW) – Computationele Lexicologie
Vanuit de UvA nemen deel:
prof. dr. Peter van Baalen (FEB) – Innovatiemodellen
prof. dr. Natali Helberger (Universiteitshoogleraar Law and Digital Technology) – Artificial Intelligence
dr. Marjolein Lanzing (FGW) – Philosophy of Technology
dr. Jelle Zuidema (FNWI) – Natural Language Processing