Management

Artificial Intelligence
peinzen

Responsible AI is bij veel organisaties vooral een façade

Management zegt dat het belangrijk is maar slechts weinigen hebben een plan.

© Shutterstock fizkes
22 september 2022

Management zegt dat het belangrijk is maar slechts weinigen hebben een plan.

Het 'responsible AI'-beleid van organisaties lijdt onder actuele problemen die de aandacht van het management vragen, zoals wereldwijde economische onzekerheid, veranderende werkwijzen en problemen met de toeleveringsketen. Managers hebben bovendien niet altijd duidelijk voor ogen wat responsible AI precies omvat. En er is gebrek aan personeel en middelen om echt werk te maken van het uitwerken en implementeren van een responsible AI-beleid.

Dat zijn de treurige conclusies van een onderzoek dat de Boston Consultancy Groep (BCG) en MIT Sloan Management Review samen uitvoerden, onder ruim 1000 vertegenwoordigers van organisaties met een jaaromzet van minimaal $100 miljoen uit 96 verschillende landen. Van de respondenten zegt 84% dat responsible AI een topprioriteit van het management zou moeten zijn. De urgentie wordt dus gevoeld. Toch zegt maar 56% van de respondenten dat het onderwerp ook daadwerkelijk een topprioriteit is. Slechts een kwart van de ondervraagden zegt dat er ook daadwerkelijk een goed uitgewerkt programma is om responsible AI een vaste plek in de organisatie te geven.

Het rapport toont ook aan dat aandacht voor responsible AI niet alleen belangrijk is voor een goed imago in de markt. Meer dan een kwart van de bevraagden zegt dat hun organisatie ervaring heeft met falende AI-systemen. Die problemen variëren van technische problemen tot uitkomsten van AI-systemen die individuen en hele gemeenschappen in gevaar hebben gebracht.

Volgens Steve Mills, chief AI ethics van BCG, draait responsible AI om een culturele transformatie waarbij iedereen in de organisatie betrokken is. Die transformatie moet beginnen bij het management en dan doorsijpelen in de organisatie. Maar op dit moment gaat de aandacht van het management daarvoor te veel uit naar andere problemen.

Regelgeving werkt niet mee

Bovendien, zo concludeert Mills, is er wereldwijd nog veel regelgeving op het gebied van AI in de maak, waardoor de bedrijfsleiding geneigd is te wachten tot duidelijk is wat de gevolgen daarvan zijn voor de eigen organisatie. Maar Mills waarschuwt dat deze afwachtende houding geen goed idee is, want het duurt gemiddeld drie jaar voor organisaties een goed responsible AI-beleid hebben ontwikkeld en geïmplementeerd.

Ook komt hij vaak de perceptie tegen dat een responsible AI-beleid lastig is, innovatie remt en veel tijd kost vanwege het invullen van checklists en de inmenging van extra toezicht. Maar dat is een misvatting, zegt Mills. In vrijwel de helft van de gevallen melden de responsible AI-leidinggevenden dat de innovatie juist is versneld, dat AI-producten beter worden vertrouwd en dat daarmee de risico's van het opschalen van AI-initiatieven afneemt.

Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.