Sorry! The information you are looking for is only available in Dutch.
Deze opleiding is opgeslagen in Mijn Studiekeuze.
Er is iets fout gegaan bij het uitvoeren van het verzoek.
Er is iets fout gegaan bij het uitvoeren van het verzoek.

VU-UvA taskforce AI in onderwijs

In september 2023 is de gezamenlijke VU-UvA taskforce AI in onderwijs gestart. In deze taskforce gaan acht experts aan de slag met de uitdagingen, maar ook met de nieuwe mogelijkheden, die kunstmatige intelligentie (in het Engels ‘artificial intelligence’, AI) het onderwijs kunnen bieden. Denk hierbij aan vraagstukken als hoe om te gaan met dergelijke technologische ontwikkelingen in het onderwijs en hoe AI op een verantwoorde manier in het onderwijs kan worden ingezet.

Om grip te houden op de uitdagingen en de scope te verduidelijken, richt de taskforce zich in eerste instantie op het onderwijs. Hieronder valt dus bijvoorbeeld niet AI in bedrijfsvoering en onderzoek. De taskforce wordt ondersteund door een VU-werkgroep en een UvA-werkgroep AI in onderwijs.

Wetenschappelijke integriteit
Universiteiten leiden mensen op tot kritische denkers die in de maatschappij in brede zin zullen gaan functioneren. In die maatschappij is AI niet meer weg te denken. Universiteiten hechten veel waarde aan integriteit en de ethische aspecten van wetenschappelijk onderzoek. Dit betekent onder andere dat universiteiten in de opleidingen voor studenten en onderzoekers systematisch aandacht besteden aan de correcte manier van onderzoek doen.

Eén van de pijlers van wetenschappelijke integriteit is transparantie. Transparantie is bij uitstek het sleutelwoord voor het gebruik van (generatieve) AI in onderwijs. Hieronder wordt per doelgroep het uitgangspunt van de taskforce kort toegelicht.

Uitgangspunten VU-UvA taskforce AI in onderwijs

  • Transparant naar de buitenwereld

    Het uitgangspunt is dat de VU en de UvA helder beleid en standpunten communiceren ten aanzien van generatieve AI in het onderwijs, zowel intern als extern. Het beleid en de standpunten bewegen mee met de ontwikkelingen en worden regelmatig en tijdig gecommuniceerd en gepubliceerd, op een plek die vindbaar is voor iedereen betrokken bij het onderwijs (en onderzoek) van de instellingen, maar ook daarbuiten.

  • Transparant beleid voor de organisatie

    Vanuit de organisatie is er behoefte aan helder beleid. Het beleid is niet statisch, omdat de ontwikkelingen in AI enorm snel gaan. De taskforce adviseert beide instellingen op het aanpassen en aanscherpen van het beleid, door de bewegingsruimte gezien de meest recente ontwikkelingen te duiden. Op basis van het beleid adviseert de taskforce de instellingen over een aantal gebruiksprincipes.

  • Transparant over de verwachtingen aan studenten, en transparantie van studenten over hun gebruik van generatieve AI

    Van studenten verwachten de instellingen transparantie over de toepassing van generatieve AI in het eigen leerproces en het eigen werk. Ook voor studenten gelden de principes van wetenschappelijke integriteit en wordt van hen verwacht dat ze verantwoordelijkheid nemen voor het eigen leerproces en het eigen werk en daar transparant over zijn. Hiervoor is het van belang dat studenten leren wat de mogelijkheden en beperkingen zijn van het gebruik van generatieve AI in werk, wetenschap en de maatschappij. Daarnaast leren studenten transparant te zijn over wanneer en hoe zij generatieve AI gebruiken. Regels en richtlijnen worden zo opgesteld dat deze transparantie wordt aangemoedigd.

  • Transparantie van softwareleveranciers

    Wetenschappelijke instellingen als de VU en de UvA moeten het belang van transparantie blijven benadrukken en druk blijven uitoefenen om softwareleveranciers te bewegen meer transparantie te bieden. Het uitgangspunt is een set criteria, opgeleverd door de taskforce, waaraan software zou moeten voldoen om de wetenschappelijke integriteit te borgen. Bovendien zou de ecologische voetafdruk van het bouwen en gebruiken van de modellen expliciet gemaakt moeten worden voor gebruikers.

  • Samenstelling van de taskforce

    De taskforce bestaat uit acht experts. In de taskforce zijn experts vanuit verschillende domeinen vertegenwoordigd.

    Vanuit de VU nemen deel:
    dr. Peter Bloem (BETA) – Kunstmatige Intelligentie
    dr. Ilja Cornelisz (FGB) – Onderwijswetenschappen
    prof. dr. ir. Felienne Hermans (BETA) – Informatica
    prof. dr. Piek Vossen (FGW) – Computationele Lexicologie

    Vanuit de UvA nemen deel:
    prof. dr. Peter van Baalen (FEB) – Innovatiemodellen
    prof. dr. Natali Helberger (Universiteitshoogleraar Law and Digital Technology) – Artificial Intelligence
    dr. Marjolein Lanzing (FGW) – Philosophy of Technology
    dr. Jelle Zuidema (FNWI) – Natural Language Processing

Contact

Contactpersoon voor de VU-UvA taskforce en de VU-werkgroep is Alice Schaap (a.schaap@vu.nl) – SOZ Onderwijsbeleid.

Direct naar

Onderzoek Research and Impact Support Portal Universiteitsbibliotheek Persvoorlichting VU

Studie

Onderwijs Studiegids Canvas Studentenbalie

Uitgelicht

Doneer aan het VUfonds VU Magazine Ad Valvas

Over de VU

Over ons Contact en route Werken bij de VU Faculteiten Diensten
Privacy Disclaimer Veiligheid Webcolofon Cookies Webarchief

Copyright © 2024 - Vrije Universiteit Amsterdam