Overslaan en naar de inhoud gaan

Responsible AI is bij veel organisaties vooral een façade

Het 'responsible AI'-beleid van organisaties lijdt onder actuele problemen die de aandacht van het management vragen, zoals wereldwijde economische onzekerheid, veranderende werkwijzen en problemen met de toeleveringsketen. Managers hebben bovendien niet altijd duidelijk voor ogen wat responsible AI precies omvat. En er is gebrek aan personeel en middelen om echt werk te maken van het uitwerken en implementeren van een responsible AI-beleid.
peinzen
© Shutterstock
Shutterstock

Dat zijn de treurige conclusies van een onderzoek dat de Boston Consultancy Groep (BCG) en MIT Sloan Management Review samen uitvoerden, onder ruim 1000 vertegenwoordigers van organisaties met een jaaromzet van minimaal $100 miljoen uit 96 verschillende landen. Van de respondenten zegt 84% dat responsible AI een topprioriteit van het management zou moeten zijn. De urgentie wordt dus gevoeld. Toch zegt maar 56% van de respondenten dat het onderwerp ook daadwerkelijk een topprioriteit is. Slechts een kwart van de ondervraagden zegt dat er ook daadwerkelijk een goed uitgewerkt programma is om responsible AI een vaste plek in de organisatie te geven.

Het rapport toont ook aan dat aandacht voor responsible AI niet alleen belangrijk is voor een goed imago in de markt. Meer dan een kwart van de bevraagden zegt dat hun organisatie ervaring heeft met falende AI-systemen. Die problemen variëren van technische problemen tot uitkomsten van AI-systemen die individuen en hele gemeenschappen in gevaar hebben gebracht.

Volgens Steve Mills, chief AI ethics van BCG, draait responsible AI om een culturele transformatie waarbij iedereen in de organisatie betrokken is. Die transformatie moet beginnen bij het management en dan doorsijpelen in de organisatie. Maar op dit moment gaat de aandacht van het management daarvoor te veel uit naar andere problemen.

Regelgeving werkt niet mee

Bovendien, zo concludeert Mills, is er wereldwijd nog veel regelgeving op het gebied van AI in de maak, waardoor de bedrijfsleiding geneigd is te wachten tot duidelijk is wat de gevolgen daarvan zijn voor de eigen organisatie. Maar Mills waarschuwt dat deze afwachtende houding geen goed idee is, want het duurt gemiddeld drie jaar voor organisaties een goed responsible AI-beleid hebben ontwikkeld en geïmplementeerd.

Ook komt hij vaak de perceptie tegen dat een responsible AI-beleid lastig is, innovatie remt en veel tijd kost vanwege het invullen van checklists en de inmenging van extra toezicht. Maar dat is een misvatting, zegt Mills. In vrijwel de helft van de gevallen melden de responsible AI-leidinggevenden dat de innovatie juist is versneld, dat AI-producten beter worden vertrouwd en dat daarmee de risico's van het opschalen van AI-initiatieven afneemt.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in