Overslaan en naar de inhoud gaan

Responsible AI-initiatieven moeten verantwoordelijken aanwijzen

Het thema Responsible AI is vooral boven komen drijven om aandacht te geven aan het voorkomen van de negatieve kanten van kunstmatige intelligentie. Bij organisaties die AI inzetten, moeten Responsible AI-initiatieven ook meer duidelijkheid geven waar het fout kan gaan en wie daar verantwoordelijk voor is, adviseert Accenture.
schuldige
© Shutterstock
Shutterstock

We bouwen al aan een 'onwerkelijke wereld', stelt Accenture als 'bottom line' in zijn Technology Vision 2022-rapport, dat vooral ingaat op het ontstaan van een 'Metaverse'. Of daarmee de wereld beter gemaakt wordt of dat we slachtoffer worden van kwaadaardige actoren, valt nog te bezien.

Waarschijnlijk komen we ergens in het midden uit, concluderen de auteurs. Maar daarmee wordt authenticiteit als kompas om AI te gebruiken op een verantwoorde manier erg belangrijk. Herkomst (hoe zijn we hier gekomen?), beleid (wat zijn de grenzen?) mensen (wie is verantwoordelijk?) en doelen (wat doet het eigenlijk?) moeten onder de loep worden genomen.

Uit het rapport blijkt dat 77% van de ondervraagden in het onderzoek vindt dat de bedrijven verantwoordelijk gehouden moeten worden voor hun misbruik van AI. Verder heeft slechts 35% vertrouwen in hoe AI wordt geïmplementeerd door organisaties.

Wie is verantwoordelijk?

De ontwikkeling van ethisch verantwoorde en betrouwbare AI is voor een belangrijk deel de verantwoordelijkheid van de mensen die de AI-modellen bij een organisatie creëren en beschikbaar stellen. De richtlijnen die daarbij worden gehanteerd, blijken per organisatie flink te verschillen. Een bijkomend probleem is dat er een behoorlijke kenniskloof bestaat tussen beleidsmakers aan de ene kant en data scientists en ontwikkelaars aan de andere kant. Niet alle betrokkenen beschikken over de juiste middelen om  een juiste risico-inschatting te kunnen maken van het toepassen van machine learning en AI in het algemeen.

Venturebeat sprak met de CEO van het twee jaar oude Credo AI, dat een governance-platform heeft ontwikkeld dat bedrijven moet helpen hun AI-systemen en machinelearning-modellen in lijn te houden met de menselijke waarden. Een van de onderdelen daarvan is duidelijkheid creëren waar zaken mis kunnen gaan en wie dan verantwoordelijk is.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in