Kunstmatige intelligentie (AI) is de afgelopen jaren steeds populairder geworden door populaire toepassingen zoals ChatGPT. Emile van Krieken onderzocht hoe deze kennis betrouwbaarder kan worden gemaakt.
AI-modellen zoals die van ChatGPT maken gebruik van Deep Learning, machine learning algoritmes die gebruik maken van enorme hoeveelheden data. Ze maken alleen wel veel fouten in het redeneren, en herkennen en produceren van feiten. Dit wordt traditioneel opgelost met symbolische methoden in AI, die zijn gebaseerd op logica en formeel redeneren.
Emile van Krieken deed onderzoek in neurosymbolische AI, het vakgebied dat probeert te begrijpen hoe een AI-model tot een conclusie komt en welke informatie het daarvoor heeft gebruikt. Hij onderzocht de vraag hoe we de achtergrondkennis die we van een probleem hebben effectief kunnen communiceren aan AI-modellen.
Van Krieken analyseerde bestaande methodes voor het communiceren van achtergrondkennis en ontwierp nieuwe methodes. Een belangrijke conclusie is dat achtergrondkennis vaak juist in de weg kan komen te zitten van data, waardoor AI vreemde conclusies trekt en verkeerde informatie geeft.
Met zijn onderzoek hoopt Van Krieken eraan bij te dragen dat AI betrouwbaarder wordt: "Het is de bedoeling dat iedereen die met AI in contact komt erop kan vertrouwen dat die alleen correcte informatie en redeneerstappen gebruikt om tot antwoorden te komen."
Meer informatie over het proefschrift