Overslaan en naar de inhoud gaan

Kabinet onderzoekt negatieve effecten van algoritmen

Het kabinet gaat nader onderzoeken welke maatregelen het moet treffen om negatieve effecten van algoritmen tegen te gaan. Ook wordt bekeken in hoeverre aanvullende wettelijke waarborgen nodig en wenselijk zijn van de richtlijnen voor data-analyse door overheden. Er zijn ook al praktische uitkomsten hoe het kabinet deze effecten wil mitigeren. Er wordt bijvoorbeeld gewerkt aan technische ontwerpprincipes om risico’s op discriminatie door AI-systemen al in de ontwikkelfase te mitigeren.
© Shutterstock
Shutterstock

Dat schrijven minister Sander Dekker, staatssecretaris Mona Keijzer, minister Kajsa Ollongren en staatssecretaris Raymond Knops in een Kabinetsreactie op drie onderzoeken naar algoritmen. Het gaat bijvoorbeeld om het onderzoek Onvoorziene effecten van zelflerende algoritmen dat naar aanleiding van een motie door Joba van den Berg en Martin Wörsdörfer is uitgevoerd.

De ministers en staatssecretarissen schrijven dat een goede consumentenbescherming van belang is en daarom wordt nader verkend welke negatieve effecten algoritmen kunnen hebben op consumenten. Die verkenning doet het aan de hand van het onderzoek naar onvoorziene effecten van zelflerende algoritmen, maar ook met initiatieven van de Europese Unie, zoals het Witboek over AI.

Ook gaat het kabinet in op de knelpunten die de onderzoekers zien in het onderzoek ‘Juridische aspecten van algoritmen die besluiten nemen Een verkennend onderzoek’. Het gaat om knelpunten en aandachtspunten met betrekking tot de algemene juridische kaders op het gebied van non-discriminatie, gegevensbescherming en rechtsbescherming.

Een aandachtspunt is bijvoorbeeld de uitleg van het begrip geautomatiseerde besluitvorming. Volgens de AVG mag een persoon niet worden onderworpen aan een uitsluitend op geautomatiseerde verwerking, waaronder profilering, gebaseerd besluit waaraan voor hem rechtsgevolgen zijn verbonden of dat hem anderszins in aanmerkelijke mate treft. Als sprake is van menselijke tussenkomt, is geen sprake van geautomatiseerde besluitvorming. “Volgens het kabinet is het evident dat het verbod op geautomatiseerde besluitvorming prevaleert, in die gevallen waarin menselijke tussenkomst niet adequaat is. Het zou echter goed zijn als het Europees Comité, dat toeziet op de consequente toepassing van de AVG, meer duidelijkheid verschaft hierover”, schrijft het kabinet.
Een ander knelpunt is de mogelijkheid om te testen met bijzondere persoonsgegevens. Volgens de AVG is het verwerken van iemands etnische afkomst verboden, maar de strenge normen tot het gebruik van deze gegevens kunnen ook in de weg staan bij het detecteren van discriminerende effecten in algoritmen, schrijven de onderzoekers.

Rechtsontwikkeling

Het kabinet onderschrijft in de brief dat algoritmen niet in een juridisch vacuüm vallen. “Om normen toekomstbestendig(er) te maken, worden ze vaak breed en open geformuleerd. Maar daardoor kan ook onzekerheid ontstaan over hoe ze in een concrete situatie precies moeten worden uitgelegd. Dit is waarom het besluitvormingsonderzoek benadrukt dat wel rechtsontwikkeling moet plaatsvinden”, schrijft het kabinet. Daarbij is een belangrijke rol van de rechter en toezichthouder en voor het kabinet zelf. “Thans wordt bijvoorbeeld ingezet op nadere normering van algoritmen via de richtlijnen voor data-analyse door overheden. In het eerste kwartaal van 2021 zal, mede aan de hand van de ervaringen hiermee, worden bezien in hoeverre het nodig en wenselijk is dat onderdelen van deze richtlijnen worden omgezet in aanvullende wettelijke waarborgen.”

Naast een juridisch kader is er beleid nodig om verantwoorde inzet van algoritmen mogelijk te maken, schrijft het kabinet. “Dit doet het kabinet onder meer door: communicatie en voorlichting, het doen van onderzoek, het uitvoeren van experimenten, het ontwikkelen/bevorderen van standaarden, toezicht en audits en het stimuleren van het maatschappelijk debat.” Dit jaar worden in opdracht van het kabinet technische ontwerpprincipes opgeleverd om risico’s op discriminatie door AI systemen al in de ontwikkelfase te mitigeren.

Geen lancunes in procesrecht

Het kabinet schrijft verder dat er geen lacunes worden geconstateerd ten aanzien van het huidige procesrechtelijke kader. “Met name door de ruime mogelijkheden die het civiele recht biedt, is een gang naar de rechter mogelijk bij de onrechtmatige inzet van data-analyse en het onrechtmatig gebruik van big data”, schrijft het kabinet. Er is een groeiend aantal (collectieve) rechtszaken gevoerd de laatste jaren.

Er zijn wel drie achterliggende problemen gesignaleerd. Zo is er vermeende gebrekkige kennis en kunde bij procespartijen of de rechter in bepaalde zaken. “Voldoende kennis en kunde over data-analyse, maar ook bijvoorbeeld algoritmegebruik, zou de rechtspleging ten goede komen. Het kabinet zou het dan ook toejuichen als meer deskundigen zich zouden inschrijven in het Nederlands Register Gerechtsdeskundigen.” Een ander probleem is dat burgers niet altijd weten dát er een big data-analyse wordt uitgevoerd, laat staan wát die behelst. En het financieren van procedures, met name in het algemeen belang, is soms moeilijk en kan leiden tot het uitblijven van procedures, schrijft het kabinet.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in