Trainen zonder sporen: Kan AI echt leren zonder jouw privacy te schenden?
Kunnen we erop vertrouwen dat artificial intelligence onze privacy beschermt? LLMs zoals ChatGPT en Claude zijn getraind met zowel publieke als private data. Hoe kan zo’n model ontworpen worden met privacy-by-design? Deze vragen stelt hoogleraar computerveiligheid Marten van Dijk in zijn oratie. Cryptografische methoden zoals Differential Privacy en PAC Privacy bieden deels een oplossing, maar hebben beperkingen. Kunnen deze formeel wiskundig beschreven worden? En kunnen trainingsalgoritmen zo worden aangepast dat accuratesse behouden blijft terwijl privacy gegarandeerd wordt?
Naast privacy spelen poison- en evasion-attacks een rol die de veiligheid van AI ondermijnen. Er is behoefte aan rigoureuze vergelijking van verdedigingsmechanismen, iets wat nu vaak ontbreekt. Ook fairness-by-design is cruciaal: wiskundig is aangetoond dat niet alle fairness-definities compatibel zijn. Hoe kunnen LLMs toch eerlijk en verantwoord ingezet worden bij besluitvorming?
Uiteindelijk streven we naar Trustworthy AI: systemen die accuraat, veilig, eerlijk én verklaarbaar zijn, aldus Van Dijk.