Overslaan en naar de inhoud gaan

'Vertrouwenscrisis rond AI kan gekeerd met inzet van hackers'

Er moet een wereldwijde gemeenschap van ethische hackers en risico-analisten komen die nieuwe AI-producten het vuur aan de schenen gaat leggen met betrekking tot het mogelijk misbruik. Dat is nodig om het tanend vertrouwen bij overheden en burgers ten aanzien van de inzet van kunstmatige intelligentie om te buigen.
ethiek
© Shutterstock
Shutterstock

Dit advies komt van een groot aantal risico-analysespecialisten en experts op het gebied van machine learning, en is gecoördineerd door de Britse University of Cambridge en meer specifiek door onderzoekers van het Centre for the Study of Existential Risk (CSER) van de universiteit. De auteurs doen hun oproep in de meest recente editie van het wetenschappelijk tijdschrift Science.

Het is in het belang van de bedrijven die dergelijke intelligente technologie ontwikkelen om een 'red teaming'-gemeenschap op te zetten en te financieren. Dat zou kunnen via het uitschrijven van 'bias bounties', interessante geldsommen voor het opsporen van ethische missers. Zo kan de integriteit van nieuwe AI-toepassingen worden bepaald voordat deze in productie wordt genomen. Problemen zoals met het fraudedetectiesysteem SyRI zouden dan niet meer voor hoeven komen.

Vertrouwenscrisis dreigt

De onderzoekers waarschuwen dat zonder actie van de kant van de makers van AI-systemen op dit vlak er een vertrouwenscrisis ten aanzien van het toepassen van AI ontstaat. Die strekt zich uit van alles van zelfsturende auto's en autonome drones naar geheime algoritmen die sociale media toepassen en waarmee de verspreiding van misinformatie en politieke onrust wordt gestimuleerd.

Die crisis is ontstaan door het relatief nieuwe fenomeen van de 'black box' in machinelearningsystemen gecombineerd met de felle concurrentiestrijd. Daardoor zijn de ontwikkeling en invoering van audits en analyse door derde partijen sterk achter gebleven. De onderzoekers waarschuwen dat het vertrouwen niet alleen hersteld kan worden door het opleggen van wet- en regelgeving van overheden. Die initiatieven zouden ook moeten komen vanuit de industrie zelf. Zij geven in het Science-artikel een aantal suggesties hoe de AI-ontwikkelaars dat zouden kunnen doen.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in