Management

Governance
uitleg

TNO: richt proeftuinen in voor in kaart brengen van impact algoritmen

Normenkader en toetsing achteraf is onvoldoende.

© CC0 - Unsplash NESA by Makers
22 juni 2021

Normenkader en toetsing achteraf is onvoldoende.

TNO pleit voor dynamisch controle en toezicht op AI-algoritmen die in samenspraak met met verschillende partijen - ook burgers - tot stand komen. Daarvoor zou de overheid experimentele omgevingen in moeten richten waarin AI-systemen voor algoritmische besluitvorming stapsgewijs worden beproefd.

De roep om regulering en toezicht op het gebruik van algoritmen neemt toe. Discriminatie, stereotypering en gebrek aan transparantie zijn enkele van de nadelen die kleven aan het gebruik van algoritmen. Zowel vanuit de Nederlandse overheid als vanuit de Europese Commissie bestaan initiatieven om te komen tot regelgeving en toezicht op het toepassen van algoritmen. Maar dat is niet voldoende, waarschuwt TNO.

Hoewel AI zich snel ontwikkelt tot een sleuteltechnologie in de maatschappij is het nog niet in te schatten wat de langetermijneffecten zijn van de inzet van algoritmen bij besluitvorming. Daarom is het lastig om nu al goede normen op te stellen. Er zou daarom een dynamische controle en monitoring van AI-systemen moeten komen.

Burger krijgt duidelijke rol

TNO stelt in een positionpaper (pdf) dat vandaag wordt gepubliceerd, voor om proeftuinen in te richten. Daarin zou voordat algoritmen worden ingezet, in kaart gebracht worden welke risico's zich voordoen bijvoorbeeld bij het samenstellen van de trainingsets en de dataverzameling waar ze op worden toegepast. Maar ook de risico's van de keuze voor een bepaald model en uiteindelijk de uitkomsten die het systeem levert. In die proeftuin krijgen zowel specialisten als burgers de gelegenheid mee te doen. 

Er zijn ook bij TNO nog wel heel wat vragen over hoe zo'n proeftuin er in praktijk uit moet komen te zien. In Denemarken is er wel al wat ervaring. Vooral het betrekken van de burgers op een manier die een goede afspiegeling van de maatschappij geeft, is altijd een van de uitdagingen in de sociale wetenschappen, zegt Anne Fleur van Veenstra, Director of Science bij de beleidsafdeling van TNO. "Eind dit jaar komt er uitsluitsel of er een eerste experiment in Nederland kan worden opgezet, waarbij ook deze vragen aan de orde komen. Bij de opzet van de CoronaMelder-app was bij de ontwikkeling sterk ingezet op de privacybescherming. Uit sessies met burgers bleek dat later helemaal niet zo te spelen omdat mensen heel doordrongen waren van de ernst van de situatie en meer geïnteresseerd waren in de werking van de app."

Juiste vragen stellen

Door de proeftuin in een zo vroeg mogelijk stadium in te zetten, wordt ook sneller duidelijk welke vragen echt belangrijk zijn en hoe ze goed geformuleerd kunnen worden, benadrukt Peter Werkhoven Chief Scientific Officer bij TNO. Hij haalt een anekdote aan van iemand die zich als doel had gesteld via een algoritme zijn werkkamer schoon te houden. Het bleek dat de robotstofzuiger het best aan die voorwaarden voldeed door de deur te blokkeren. Van Veenstra: "Er zijn nu veel normen in ontwikkeling, maar uit gesprekken die we hebben gehad met datascienceteams blijkt toch vaak dat ze grote moeite hebben die te vertalen naar programmeertaken. Hoe gaan we dat organiseren?"

Als er dit jaar een 'go' komt kan het experiment met de eerste proeftuin begin volgend jaar van start gaan. "We hebben becijferd dat een proeftuin idealiter ongeveer anderhalf jaar moet duren en anderhalve ton kost." Het idee is dat de langetermijnmonitoring dan na implementatie meer een taak wordt voor toezichthouders. Die zouden dan wel beter moeten worden toegerust voor het toezicht op algoritmen, zodat niet - zoals nu - de aandacht vooral ligt bij het privacyaspect van het gebruik van dataverzamelingen, zoals nu door de Autoriteit Persoonsgegevens wordt gedaan.

 

Lees meer over Management OP AG Intelligence
1
Reacties
Johan 22 juni 2021 12:11

Misschien moeten we stoppen om steeds over "algoritmen" te praten. In plaats daarvan zouden we het moeten hebben over de representativiteit van de data sets waarmee AI-systemen worden gevoed. Misschien zou het publiek dan ook beter begrijpen wat de issues zijn.

Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.