Overslaan en naar de inhoud gaan

Minister: AI-algoritmes transparant, maar met mate

Transparantie van het gebruik van algoritmes door de overheid wordt door minister Dekker van Rechtsbescherming erkend en onderschreven. Hij brengt echter nuancering aan: in soorten algoritmes, in soorten transparantie, en in wenselijkheid dan wel (on)mogelijkheid van volledige transparantie. In een uitgebreide brief aan de Tweede Kamer zet hij uiteen dat transparantie misschien wel moet, maar met mate kan.
Sander Dekker
© Rijksoverheid
Rijksoverheid

De minister voor Rechtsbescherming reageert met zijn Kamerbrief in wezen op de motie van Kamerlid Kees Verhoeven voor openheid en transparantie voor algoritmes en analysemethodes van de overheid. Het gaat hier om analytische ICT-toepassingen met een aanmerkelijke impact op burgers, waarbij ook de gebruikte databestanden openbaar zouden moeten zijn, aldus de motie. Voor gevallen waarvan algoritmes en analysemethodes "om zwaarwegende redenen" niet openbaar gemaakt kunnen worden, pleit de motie voor een technische audit om te controleren op onbedoelde discriminatie of andere negatieve effecten. De resultaten van zulke audits zouden dan weer openbaar moeten zijn.

Middel, geen doel

Deze motie voor algoritme-transparantie is op verzoek van Dekker aangehouden, met de toezegging dat hij de Kamer zou informeren over het effect dat uitvoering van deze motie zou hebben. Dat doet de minister nu met een brief van elf kantjes waarin hij meervoudige nuancering aanbrengt: in algoritmes, in transparantie, en in (on)mogelijkheden voor openbaarheid. Zo introduceert Dekker een splitsing voor het begrip transparantie, en de toepassing daarvan.

"Als we in meer algemene zin kijken naar de mate waarin en de wijze waarop algoritmes transparant gemaakt kunnen worden, is het van belang te beseffen dat transparantie geen doel op zichzelf is, maar een middel." De minister legt uit dat transparantie kan bijdragen aan het vertrouwen dat mensen hebben in het gebruik van algoritmes door de overheid. Sterker nog: het vertrouwen dat burgers moeten kunnen hebben in algoritmes. Hierbij speelt ook mee dat mensen mogelijkheden moeten hebben om zich eventueel te weer te stellen tegen een uitkomst van algoritme-gebruik.

Uitlegbaarheid

"Met dit voor ogen is het nuttig onderscheid te maken tussen 'technische transparantie' en 'uitlegbaarheid'." Bij laatstgenoemd begrip verwijst Dekker naar een recent gepubliceerd Brits overheidsrapport, over AI-toepassing in het Verenigd Koninkrijk. "Bij 'technische transparantie' gaat het om wat we in theorie transparant kunnen maken. In algemene zin gaat het hierbij om publicatie van de broncode van de gebruikte algoritmes en analysemethoden, inclusief de gebruikte databestanden."

"Bij zelflerende algoritmes gaat het bovendien om transparantie van de trainingsdata. Deze kunnen iets zeggen over de context waarin het algoritme het best kan worden toegepast. Als de data niet representatief zijn voor het toepassingsveld of als er in het verleden sprake is geweest van discriminatie en dit in de trainingsdata wordt weerspiegeld, kan het algoritme minder betrouwbaar zijn of zelfs discriminerend." Dit risico is nu net in de praktijk gedemonstreerd door een stilletjes geschrapt AI-project van Amazon. Uit uitgelekte informatie blijkt dat de AI-toepassing voor het keuren van sollicitanten discrimineerde tegen vrouwen, doordat de dataset was gebaseerd op tien jaar aan eigen personeelsinhuur waarbij Amazon vooral mannen heeft aangenomen.

Innovatie-inperking en uitvoeringslasten

Dekker merkt in zijn Kamerbrief op dat harde eisen voor transparantie en uitlegbaarheid ook keerzijdes hebben. Hij onderscheidt hiervoor vijf categorieën. Deze lopen uiteen van beperking voor de complexiteit (en daarmee toegevoegde waarde) van algoritmes, via dreigende inperking van innovatie, en gevaar voor privacy, tot aan de dreiging van manipulatie door derden.

Over mogelijk nadelige impact op innovatie schrijft de minister: "Technische transparantie van het algoritme kan bedrijfsgeheimen schaden en kan daardoor ten koste gaan van innovatie. Het vooruitzicht van exclusief bezit van een algoritme geeft namelijk een prikkel om te investeren in de ontwikkeling van algoritmes. Dat geldt ook voor algoritmes die bedrijven in opdracht van de overheid ontwikkelen."

Als vijfde categorie keerzijde van een eventuele eis voor (technische) transparantie of uitlegbaarheid draagt de minister ook aan dat dit leidt tot extra lasten voor de overheid. "De uitvoeringslasten worden in het eerste geval vooral ingegeven door de relatief grote hoeveelheid van eenvoudige algoritmes, in het tweede geval door het relatief grote volume aan elementen waaruit complexe algoritmes bestaan."

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in