Relschoppers herkennen met behulp van AI: handig of onethisch?
Geweld herkennen op bewakingsbeelden van grote menigtes? Het kan, met behulp van AI. Maar we moeten goed nadenken of, en op welke manier, we zo'n model willen implementeren. Dat concludeert Emmeke Veltmeijer. ‘Het is relevanter dan ooit om ethisch verantwoorde modellen te ontwikkelen en hierover in gesprek te blijven.’
AI-onderzoeker Emmeke Veltmeijer keek hoe je grote groepen mensen automatisch kunt analyseren met behulp van kunstmatige intelligentie. Dit kan bijvoorbeeld van pas komen voor beveiligingsmedewerkers en crowdmanagers, die op basis van grote hoeveelheden data opstootjes willen herkennen.
Rellen en rumoer
‘Dit heb ik gedaan door menigtes automatisch op te delen in kleinere subgroepen,’ zegt Veltmeijer. ‘Die subgroepen kun je analyseren met behulp van afbeeldingen, videobeelden, audio en berichten op sociale media.’ Ze ontwikkelde AI-modellen op de computer en paste die toe op de echte wereld. ‘Hiermee kon ik automatisch vechtende groepjes mensen herkennen op videobeelden, en op basis van socialmediaberichten traceren in welke delen van Amsterdam rellen plaatsvinden. Ook kon ik op basis van enkel rumoer op groepsniveau achterhalen of de subgroepen ineen menigte zich positief of negatief uitlaten.’
Veltmeijer richtte zich op toepasbare systemen, die het werk van bijvoorbeeld beveiligers makkelijker kunnen maken. Denk aan een systeem dat beveiligers erop attendeert als een groepje zich gewelddadig gedraagt. Een andere mogelijke toepassing is het analyseren van het geluid van rivaliserende supporters bij een sportwedstrijd. Een derde toepassing is het analyseren van sociale mediaberichten over een bepaalde regio, om veiligheidsdiensten te ondersteunen bij het detecteren van rellen of andere onverwachte gebeurtenissen.
Ethiek
Of het gewenst is dat zulke gedetailleerde informatie kan worden opgehaald uit een grote menigte is een tweede vraag. Veltmeijer onderzocht daarom ook de gevolgen van de Europese verordening artificiële intelligentie (AI Act) op automatische groepsanalyse zoals in haar studie. 'Kunstmatige intelligentie speelt een steeds grotere rol in onze maatschappij. Het is relevanter dan ooit om ethisch verantwoorde modellen te ontwikkelen en hierover in gesprek te blijven.’
Na ethische analyse bleek dat er praktische en ethische bezwaren blijven bestaan, ook wanneer je de AI Act toepast. Suggesties voor verbetering richten zich onder meer op dataverzameling zonder dat je persoonlijke data verzamelt, rekening houden met de context waarin je data verzamelt, en de individuele verantwoordelijkheid van wetenschappers.
De resultaten van haar onderzoek zijn daarom niet alleen relevant voor mensen die zich bezighouden met crowd management, maar eigenlijk voor iedereen die wel eens deel uitmaakt van een grote menigte. Veltmeijer: ‘Het is belangrijk om te weten wat je rechten zijn, en op welke manier AI-systemen kunnen bijdragen aan jouw fysieke veiligheid, zonder dat daarbij je privacy wordt geschonden.’
Meer informatie over het proefschrift