BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//Vrije Universiteit Amsterdam//NONSGML v1.0//EN
NAME:Oratie prof.dr.ir. M.E. van Dijk
METHOD:PUBLISH
BEGIN:VEVENT
DTSTART:20260226T154500
DTEND:20260226T171500
DTSTAMP:20260226T154500
UID:2026/oratie-prof-dr-ir-m-e-van@8F96275E-9F55-4B3F-A143-836282E12573
CREATED:20260507T025932
LOCATION:Hoofdgebouw, Aula De Boelelaan 
 1105 1081 HV  Amsterdam
SUMMARY:Oratie prof.dr.ir. M.E. van Dijk
X-ALT-DESC;FMTTYPE=text/html: <html> <body> <p>Can your Private Data b
 e Secured in the age of Machine Learning?</p> <h3>Trainen zonder spor
 en: Kan AI echt leren zonder jouw privacy te schenden?</h3><p>Kunnen 
 we erop vertrouwen dat artificial intelligence onze privacy beschermt
 ? LLMs zoals ChatGPT en Claude zijn getraind met zowel publieke als p
 rivate data. Hoe kan zo’n model ontworpen worden met privacy-by-des
 ign? &nbsp;Deze vragen stelt hoogleraar computerveiligheid bij Centru
 m Wiskunde &amp; Informatica (CWI) Marten van Dijk in zijn oratie. Cr
 yptografische methoden zoals Differential Privacy &nbsp;en PAC Privac
 y bieden deels een oplossing, maar hebben beperkingen. Kunnen deze fo
 rmeel wiskundig beschreven worden? En kunnen trainingsalgoritmen zo w
 orden aangepast dat accuratesse behouden blijft terwijl privacy gegar
 andeerd wordt?</p><p>Naast privacy spelen poison- en evasion-attacks 
 een rol die de veiligheid van AI ondermijnen. Er is behoefte aan rigo
 ureuze vergelijking van verdedigingsmechanismen, iets wat nu vaak ont
 breekt. Ook fairness-by-design is cruciaal: wiskundig is aangetoond d
 at niet alle fairness-definities compatibel zijn. Hoe kunnen LLMs toc
 h eerlijk en verantwoord ingezet worden bij besluitvorming?</p><p>Uit
 eindelijk streven we naar Trustworthy AI: systemen die accuraat, veil
 ig, eerlijk én verklaarbaar zijn, aldus Van Dijk.</p> </body> </html
 >
DESCRIPTION: <h3>Trainen zonder sporen: Kan AI echt leren zonder jouw 
 privacy te schenden?</h3> Kunnen we erop vertrouwen dat artificial in
 telligence onze privacy beschermt? LLMs zoals ChatGPT en Claude zijn 
 getraind met zowel publieke als private data. Hoe kan zo’n model on
 tworpen worden met privacy-by-design? &nbsp;Deze vragen stelt hoogler
 aar computerveiligheid bij Centrum Wiskunde &amp; Informatica (CWI) M
 arten van Dijk in zijn oratie. Cryptografische methoden zoals Differe
 ntial Privacy &nbsp;en PAC Privacy bieden deels een oplossing, maar h
 ebben beperkingen. Kunnen deze formeel wiskundig beschreven worden? E
 n kunnen trainingsalgoritmen zo worden aangepast dat accuratesse beho
 uden blijft terwijl privacy gegarandeerd wordt? Naast privacy spelen 
 poison- en evasion-attacks een rol die de veiligheid van AI ondermijn
 en. Er is behoefte aan rigoureuze vergelijking van verdedigingsmechan
 ismen, iets wat nu vaak ontbreekt. Ook fairness-by-design is cruciaal
 : wiskundig is aangetoond dat niet alle fairness-definities compatibe
 l zijn. Hoe kunnen LLMs toch eerlijk en verantwoord ingezet worden bi
 j besluitvorming? Uiteindelijk streven we naar Trustworthy AI: system
 en die accuraat, veilig, eerlijk én verklaarbaar zijn, aldus Van Dij
 k. Can your Private Data be Secured in the age of Machine Learning?
END:VEVENT
END:VCALENDAR
