Overslaan en naar de inhoud gaan

Rathenau Instituut geeft advies voor meer grip op algoritmes

Op woensdag 15 februari spreekt de Tweede Kamercommissie Digitale Zaken over de inzet van algoritmes en data-ethiek binnen de rijksoverheid. In de aanloop hiervan geeft het Rathenau Instituut drie adviezen waarmee Kamerleden beter kunnen toezien op het gebruik van algoritmes door overheden.
Algoritme
© Shutterstock.com
Shutterstock.com

De rijksoverheid neemt al veel maatregelen om de risico’s van algoritmes te beperken. Zo zijn de Code Goed Digitaal Openbaar Bestuur, de Handreiking non-discriminatie by design en de Impact Assesment Mensenrechten en Algoritmes ontwikkeld. Ook is er een nationaal algoritmeregister gestart en werkt het kabinet aan een implementatiekader. Maar sommige onderwerpen zijn niet volledig met deze maatregelen, met name als het gaat om non-discriminatie, privacy en veiligheid, stelt het Rathenau Instituut.

Handvatten toezicht

Daarom geeft het drie handvatten voor het parlement om beter op deze zaken toe te zien: 

  1. Waarborg de informatievoorziening aan het parlement
  2. Versterk de juridische waarborgen ten aanzien van non-discriminatie
  3. Verhelder de juridische eisen ten aanzien van het motiveringsbeginsel

Het verplicht stellen van impact assessments zoals het IAMA is niet genoeg; ze moeten ook openbaar toegankelijk zijn. Zo krijgt het parlement inzicht in de moeilijke afwegingen die overheidsorganisaties maken. Daarnaast adviseert het Rathenau Instituut om een complete proportionaliteitsafweging in het assessment op te nemen. Alleen zo kan het parlement per geval beoordelen of de risico’s in evenwicht zijn met de opbrengst van de inzet van algoritmes. Misschien zijn er alternatieven die hetzelfde resultaat opleveren, maar niet dezelfde risico’s?

Waarborgen non-discriminatie

Bewijs maar eens dat je door een algoritme bent gediscrimineerd. Dat valt niet mee. Er is al een motie aangenomen om te verplichten of een overheidsbesluit mede is gebaseerd op een algoritme of risicoprofilering. Maar er zijn meer opties die het makkelijker maken om discriminatie aan te tonen, zoals het deels omdraaien van de bewijslast. Daarnaast kan het nodig zijn om meer beschermde gronden in de wet op te nemen, zodat burger niet onverhoeds worden gediscrimineerd door lerende algoritmes die hun eigen sorteerregels ontwikkelen.

De overheid zet lerende algoritmes vooral in als ‘beleidsondersteuning’, niet als beslissers. Maar daarmee weet een burger nog niet hoe het systeem werkt of waarom hij werd geselecteerd. Meer uitleg over het algoritme en motivering over concrete besluiten draagt hieraan bij.

Toch experimenteren

Lerende algoritmes die zonder toezicht hun gang gaan, zijn moeilijk te verenigen met het motiveringsbeginsel. Om die reden zien veel overheidsorganisaties er van af om ze in te zetten, zelfs als deze systemen voor betere resultaten zorgen. Ontwikkelaars bij deze organisaties experimenteren echter wel met deze technieken. Dat kan leiden tot druk om ze toch in te zetten. Het Rathenau Instituut dringt er daarom bij de Tweede Kamer op aan om het kabinet te vragen om heldere normstelling.

Dit artikel is eerder gepubliceerd op Binnenlands Bestuur, zustertitel van AG Connect.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in