Management

Artificial Intelligence
Raymond Knops

BZK grijpt in om bias in overheidsalgoritmen te vermijden

Reeks maatregelen moet aandacht bij overheden voor mensenrechten vergroten.

Raymond Knops © ministerie van Binnenlandse Zaken en Koninkrijksrelaties
7 juni 2021

Reeks maatregelen moet aandacht bij overheden voor mensenrechten vergroten.

De aandacht voor ethische principes bij het gebruik van algoritmen is onvoldoende, zegt demissionair staatssecretaris Raymond Knops van BZK. Gemeenten zijn in principe zelf verantwoordelijk, maar het ministerie van BZK gaat hen wel wijzen op die verantwoordelijkheid. En er komt hulp bij het verantwoord inzetten van algoritmen.

Het ministerie van Binnenlandse Zaken en Koninksrijksrelaties (BZK) komt binnenkort met een 'Handreiking AI-systeemprincipes voor non-discriminatie'. Met een overzicht van de belangrijkste wetgeving ten aanzien van discriminatie en een aantal voorbeelden van situaties die mogelijk aanleiding kunnen geven tot discriminatie, hoopt demissionair staatssecretaris Knops de bewustwording van de betrokken ambtenaren te vergroten.

Nationale AI-cursus

Ook komt er een nationale AI-cursus ontwikkeld met speciale aandacht voor ethiek. Daarnaast is er een impact assessment mensenrechten en algoritmen (IAMA) in de maak waarmee overheden in kaart kunnen brengen welke risico's er kleven aan het inzetten van algoritmen als het gaat om het schenden van mensenrechten.

Verder wil de demissionair staatssecretaris de komende jaren het verantwoord gebruik van algoritmen beter onder de aandacht brengen. Het Rathenau Instituut gaat een inventarisatie maken van de hiaten bij overheidsorganisaties met betrekking tot kennis, capaciteit en processen die nu zorgen voor een gebrek aan aandacht voor het waarborgen van mensenrechten.

Knops zegt tenslotte dat inmiddels al een Rijksbrede inventarisatie is gestart naar het ongeoorloofd gebruik van nationaliteit, etniciteit en geboorteplaats in modellen die worden gebruikt om risico's in te schatten.

Aandacht niet wijdverspreid

Knops antwoordt hiermee op Kamervragen van GroenLinks en DENK van half april over de harde conclusies die de Rekenkamer Rotterdam trekt uit onderzoek naar vooringenomenheid in algoritmen om bijstandsfraude op te sporen. Knops haalt de conclusies van het Rekenkamer-rapport aan dat er binnen de gemeente Rotterdam wel aandacht is voor de ethische principes bij het gebruik van algoritmen, maar dat deze aandacht nog niet wijdverspreid is.

De demissionair staatssecretaris benadrukt dat het niet is toegestaan variabelen te gebruiken die een directe of indirecte relatie hebben met een in de wet beschermde grond zoals leeftijd of godsdienst. Hij erkent echter ook dat het veel lastiger is kenmerken met een indirecte verwijzingen te herkennen dan die met een directe verwijzing. Spreekvaardigheid is een voorbeeld van zo'n kenmerk dat indirect kan verwijzen naar afkomst of etniciteit, volgens Knops en de Rekenkamer Rotterdam. Ook vindt Knops dat er door overheden beter gecommuniceerd moet worden over de inzet van algoritmen.

Lees meer over Management OP AG Intelligence
1
Reacties
Bop 09 juni 2021 15:29

Een baaijas is speciaal voor aan het strand, zeg maar.
Dus dat is anders dan een handdoek neerleggen, om een stoel bij het zwembad te bezetten.
Het kan wel tegelijk.

Voor de kenners.

Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.