Innovatie & Strategie

Artificial Intelligence
rellen

'We zoeken naar een verantwoorde rol van AI in publieke veiligheid'

Waar liggen de delicate grenzen van de inzet van AI?

© Shutterstock Aaron
13 mei 2022

Waar liggen de delicate grenzen van de inzet van AI?

De inzet van kunstmatige intelligentie biedt veel mogelijkheden om de veiligheid in het maatschappelijk leven te verbeteren. Maar evengoed kan de inzet van AI het maatschappelijk ongenoegen voeden. Waar de delicate grenzen liggen en hoe regels kunnen worden opgesteld om ongelukken te voorkomen, is onderwerp van een nieuw multidisciplinair onderzoek waarin de Erasmus Universiteit de leiding (penvoering) heeft.

Gezichtsherkenning kan een middel zijn om hooligans uit een stadion te weren. De technologie is er, maar willen we wel dat alle voetbalsupporters worden gescand? De veiligheid in woonwijken kan flink omhoog met de inzet van algoritmen die proactief alarm kunnen slaan op basis van informatie uit allerlei data over incidenten en van sensoren zoals camera's. Maar voldoen die oplossingen aan de juridische en maatschappelijke randvoorwaarden?

De inzet van kunstmatige intelligentie in het maatschappelijk leven staat echt nog in de kinderschoenen. Het vergt dus nog veel uitzoekwerk naar wat maatschappelijk acceptabel en gewenst is. Het makkelijkst gaat dat door onderzoek te doen aan een aantal praktijkvoorbeelden. Gaandeweg kunnen dan de voor- en nadelen van beschikbare toepassingen worden besproken met deskundigen - zoals juristen, sociologen, filosofen - en natuurlijk burgerfora en andere betrokkenen.

Die aanpak staat dan ook centraal in het vijf jaar durende project AI and Public Safety, gefinancierd door onder meer NWO en de AI Coalition. Het project wordt aangestuurd door onder meer Gabriele Jacobs (hoogleraar Organisational Behaviour and Culture), Evert Stamhuis (hoogleraar Recht & Innovatie) en Robin van den Akker (directeur van het Erasmus Center for Liberal Arts and Sciences), alle drie van de Erasmus Universiteit. Zij werken nauw samen in een brede coalitie van kennisinstellingen en maatschappelijke organisaties waaronder de TU Delft, TNO, de Haagse Hogeschool, de Security Delta en de Impact Coalition Safety & Security, waar ook de politie aan deelneemt.

Rellen rond de avondklok

Van den Akker: "De parapluterm voor de use cases is 'maatschappelijk ongenoegen'. Hoe kun je dat met de inzet van AI terugdringen en maatschappelijk genoegen bevorderen? Een directe aanleiding voor een van de use cases waren de rellen rond de avondklok tijdens de coronapandemie. Gelijk kwam de vraag op hoe je kunstmatige intelligentie zou kunnen inzetten op basis van ethisch en juridisch juiste en geborgde publieke waarden om zo'n uiting van maatschappelijk ongenoegen in de toekomst niet meer uit de hand te laten lopen." Stamhuis voegt toe: "Pas in de use cases wordt de spanning voelbaar die opgelost zou moeten worden als AI-toepassingen een grotere plek innemen in de behartiging van publieke veiligheid."

Het is niet de bedoeling dat voor het onderzoek nieuwe algoritmen worden gecreëerd. De onderzoekers werken samen met TNO en industriepartners die generieke modellen leveren. Die worden getraind met behulp van synthetische data en gegevens van verschillende deelnemende publieke organisaties, zoals de politie, gemeenten en woningbouwverenigingen. Van den Akker: "Ze hebben allemaal een taak om de veiligheid te bevorderen. Een algoritme kan op basis van de ingevoerde data risico's aangeven op verschillende manieren, bijvoorbeeld uitgelicht in geografische locaties, momenten van de dag of de samenstelling van de populatie. Je kunt dan als het ware hotspots aanwijzen. Er zijn al ervaringen met reageren op hotspots op basis van geografische locaties, denk daarbij aan 'predictive policing'. Dat heeft voor- en nadelen, zal ik maar voorzichtig zeggen."

Hetzelfde geldt voor hotspots op basis van het moment van de dag en samenstelling van de populatie. "Selecteren op basis van postcode heeft in Nederland een heel negatieve associatie. Dat is precies waar we heel alert op willen zijn. Je komt al snel in een situatie waarbij je bias aan het reproduceren bent en daarmee juist het maatschappelijk ongenoegen vergroot in plaats van terugdringt."

Veiligheid in de woonwijk

In de aanpak worden uiteenlopende use cases bestudeerd. Een ervan is dus de veiligheid in de woonwijk. Er is een use case rond veiligheid in relatie tot criminaliteit met een grote impact, zoals woninginbraak. En er wordt gekeken naar crowd management, de veiligheid op plekken waar veel mensen bij elkaar komen zoals festivals en voetbalwedstrijden. Daarbij komen verschillende aspecten van het verbeteren van de orde en veiligheid aan bod, die moeten rijmen met wat maatschappelijk, juridisch en sociaal als wenselijk wordt gezien. Van den Akker: "In het geval van veiligheid in de woonwijken gaat het om een statische situatie, terwijl bij crowd management je te maken hebt met een dynamische situatie waarbij je realtime beelden wilt analyseren om bewegingen in menigten te beschrijven."

Stamhuis: "Het draait uiteindelijk om de interessante vraag: wat voor soort samenleving willen we zijn? Daar kun je pas concreet antwoord op geven door daadwerkelijk verschillende scenario's te onderzoeken voor het managen van grote groepen, bijvoorbeeld voetbalsupporters rond een stadion. Willen we maximale surveillance zonder gezichtsherkenning, of juist met? Die detaillering maakt veel uit voor het beantwoorden van die vraag." Van den Akker: "Je hebt eigenlijk twee dominante modellen: het een is het staatsgerichte, laten we het maar even het Chinese model noemen. Dat zet de mogelijkheden die AI biedt, volledig in voor veiligheid door repressie. Het andere is het private model, zeg maar het Amerikaanse model: veiligheid voor wie het kan betalen. In dit project willen we - en dat is in lijn met waar de Europese Unie ook naar op zoek is - een manier vinden die meer recht doet aan de publieke waarden en de juridische kaders. Dat is een enorme uitdaging, een interessant en waardevol terrein."

Hele speelveld vertegenwoordigd

Van den Akker benadrukt dat het daarbij erg belangrijk is dat alle betrokken evenredig vertegenwoordigd zijn. Hij noemt dat de 'quadruple helix', onderzoek waarbij academische onderzoekers, industrie, overheid en burgers innig verweven aan het werk gaan. "Juist het deelnemen van burgers is belangrijk. Je kunt geen maatschappelijk ongenoegen wegnemen of genoegen bevorderen als je de mensen die uiteindelijk de samenleving vormen, daarin niet meeneemt. De overheid en de private partners zijn belangrijke pijlers onder de twee uitersten die ik net schetste. Als wetenschappelijk onderzoekers kun je dat niet alleen." Van den Akker werkt zelf aan het University College van de Erasmus Universiteit, een onderdeel dat juist is opgericht om door de traditionele academische disciplines heen dwarsverbanden te leggen.

Cocreatie moet ervoor gaan zorgen dat de ontwikkeling van AI-systemen gaat plaatsvinden in interactie met mensen die verstand hebben van de ethische en juridische kaders, en met mensen die inzicht hebben in wat de uitkomsten uiteindelijk betekenen in het dagelijks leven.

Ontwerp- en gedragsregels

Stamhuis: "Dat maakt het zo spannend. We moeten duidelijk krijgen wat 'ge-engineerd' kan worden in ontwerpregels en wat er vastgelegd moet worden in gedragsregels voor de mensen die de technologie gaan toepassen. Het leuke is dat je in gesprekken merkt dat er door niet-technische mensen vragen gesteld worden waar de technici gewoon nog nooit aan hebben gedacht. Die denken meer aan de mogelijkheden die de techniek biedt. Dat type creativiteit hebben we natuurlijk nodig. Maar je kunt ook concluderen dat het beter is om iets dat technisch wel mogelijk is, gewoon niet te doen." Stamhuis benadrukt dat dit precies de gedachte is achter de ELSA-labs (Ethical Legal Social Aspects) die door NWO en de AI Coalition zijn bedacht om het gebruik van kunstmatige intelligentie goed in te bedden in de samenleving als 'Mensgerichte AI'.

Het project is nu echt nog in de voorbereidingsfase. Stamhuis: "In september is een officiële start met een publieksbijeenkomst. Daarna gaan vier PhD-studenten aan de slag die gedurende hun vierjarige aanstelling wetenschappelijke artikelen zullen schrijven. Daarnaast gaan we kijken naar nieuwe wetenschappelijke werkwijzen die een betere balans hebben tussen de belangen van burgers, maatschappelijke partners en commerciële partners als het gaat om het gebruik van en de rechten op onze uitkomsten. We kunnen daar een soort werkwijze voor ontwerpen die mooi vertaalt wat er al in de wetenschap aan protocollen en guidelines voor onafhankelijkheid en openheid aanwezig is, en die tegelijk betekenisvol inhaakt op dat interactief proces van kennisverwerving."

Magazine AG Connect

Dit artikel is ook gepubliceerd in het magazine van AG Connect (juni 2022). Wil je alle artikelen uit dit nummer lezen, zie dan de inhoudsopgave.

Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.