Innovatie & Strategie

Artificial Intelligence
ethiek

'Vertrouwenscrisis rond AI kan gekeerd met inzet van hackers'

Ontwikkelaars AI zijn óók aan zet.

© Shutterstock Delpixel
14 december 2021

Ontwikkelaars AI zijn óók aan zet.

Er moet een wereldwijde gemeenschap van ethische hackers en risico-analisten komen die nieuwe AI-producten het vuur aan de schenen gaat leggen met betrekking tot het mogelijk misbruik. Dat is nodig om het tanend vertrouwen bij overheden en burgers ten aanzien van de inzet van kunstmatige intelligentie om te buigen.

Dit advies komt van een groot aantal risico-analysespecialisten en experts op het gebied van machine learning, en is gecoördineerd door de Britse University of Cambridge en meer specifiek door onderzoekers van het Centre for the Study of Existential Risk (CSER) van de universiteit. De auteurs doen hun oproep in de meest recente editie van het wetenschappelijk tijdschrift Science.

Het is in het belang van de bedrijven die dergelijke intelligente technologie ontwikkelen om een 'red teaming'-gemeenschap op te zetten en te financieren. Dat zou kunnen via het uitschrijven van 'bias bounties', interessante geldsommen voor het opsporen van ethische missers. Zo kan de integriteit van nieuwe AI-toepassingen worden bepaald voordat deze in productie wordt genomen. Problemen zoals met het fraudedetectiesysteem SyRI zouden dan niet meer voor hoeven komen.

Vertrouwenscrisis dreigt

De onderzoekers waarschuwen dat zonder actie van de kant van de makers van AI-systemen op dit vlak er een vertrouwenscrisis ten aanzien van het toepassen van AI ontstaat. Die strekt zich uit van alles van zelfsturende auto's en autonome drones naar geheime algoritmen die sociale media toepassen en waarmee de verspreiding van misinformatie en politieke onrust wordt gestimuleerd.

Die crisis is ontstaan door het relatief nieuwe fenomeen van de 'black box' in machinelearningsystemen gecombineerd met de felle concurrentiestrijd. Daardoor zijn de ontwikkeling en invoering van audits en analyse door derde partijen sterk achter gebleven. De onderzoekers waarschuwen dat het vertrouwen niet alleen hersteld kan worden door het opleggen van wet- en regelgeving van overheden. Die initiatieven zouden ook moeten komen vanuit de industrie zelf. Zij geven in het Science-artikel een aantal suggesties hoe de AI-ontwikkelaars dat zouden kunnen doen.

Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.