Management

Artificial Intelligence
schuldige

Responsible AI-initiatieven moeten verantwoordelijken aanwijzen

Kenniskloof maakt goed beleid opstellen niet makkelijk.

© Shutterstock ra2 studio
19 mei 2022

Kenniskloof maakt goed beleid opstellen niet makkelijk.

Het thema Responsible AI is vooral boven komen drijven om aandacht te geven aan het voorkomen van de negatieve kanten van kunstmatige intelligentie. Bij organisaties die AI inzetten, moeten Responsible AI-initiatieven ook meer duidelijkheid geven waar het fout kan gaan en wie daar verantwoordelijk voor is, adviseert Accenture.

We bouwen al aan een 'onwerkelijke wereld', stelt Accenture als 'bottom line' in zijn Technology Vision 2022-rapport, dat vooral ingaat op het ontstaan van een 'Metaverse'. Of daarmee de wereld beter gemaakt wordt of dat we slachtoffer worden van kwaadaardige actoren, valt nog te bezien.

Waarschijnlijk komen we ergens in het midden uit, concluderen de auteurs. Maar daarmee wordt authenticiteit als kompas om AI te gebruiken op een verantwoorde manier erg belangrijk. Herkomst (hoe zijn we hier gekomen?), beleid (wat zijn de grenzen?) mensen (wie is verantwoordelijk?) en doelen (wat doet het eigenlijk?) moeten onder de loep worden genomen.

Uit het rapport blijkt dat 77% van de ondervraagden in het onderzoek vindt dat de bedrijven verantwoordelijk gehouden moeten worden voor hun misbruik van AI. Verder heeft slechts 35% vertrouwen in hoe AI wordt geïmplementeerd door organisaties.

Wie is verantwoordelijk?

De ontwikkeling van ethisch verantwoorde en betrouwbare AI is voor een belangrijk deel de verantwoordelijkheid van de mensen die de AI-modellen bij een organisatie creëren en beschikbaar stellen. De richtlijnen die daarbij worden gehanteerd, blijken per organisatie flink te verschillen. Een bijkomend probleem is dat er een behoorlijke kenniskloof bestaat tussen beleidsmakers aan de ene kant en data scientists en ontwikkelaars aan de andere kant. Niet alle betrokkenen beschikken over de juiste middelen om  een juiste risico-inschatting te kunnen maken van het toepassen van machine learning en AI in het algemeen.

Venturebeat sprak met de CEO van het twee jaar oude Credo AI, dat een governance-platform heeft ontwikkeld dat bedrijven moet helpen hun AI-systemen en machinelearning-modellen in lijn te houden met de menselijke waarden. Een van de onderdelen daarvan is duidelijkheid creëren waar zaken mis kunnen gaan en wie dan verantwoordelijk is.

Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.