Overslaan en naar de inhoud gaan

Risicomanagement rondom AI agents

De opmars van AI brengt ook zogeheten AI agents met zich mee, digitale hulpjes die grotendeels zelfstandig taken kunnen uitvoeren. AI agents kunnen menselijke medewerkers ondersteunen of juist werk uit handen nemen. Okta en Workday vertellen als twee grote softwarebedrijven waar je als organisatie op moet letten bij de keuze voor AI agents.    

AI agent
Shutterstock

AI agents zijn zo te programmeren dat ze namens een gebruiker kunnen opereren, bijvoorbeeld namens een menselijke medewerker of namens een consument. Zo kan een AI agent helpen met het opvragen, analyseren en samenvatten van data, om vervolgens na goedkeuring van de medewerker concrete vervolgacties te ondernemen. Steeds meer softwarebedrijven, van Salesforce en OpenAI tot Microsoft en Adobe, integreren AI agents in hun zakelijke programma’s. AI agents zijn tot dusver vooral populair in de klantenservice, salesondersteuning, HR-processen en het automatiseren van marketing- en contentstrategieën.  

Okta nodigde ons uit om in Engeland meer te weten te komen over AI agents, onder andere via een presentatie door de CEO en een interview met Arnab Bose, de Chief Product Officer van Okta’s Workforce Identity-oplossingen. Die beveiligingsoplossingen laten gebruikers onder meer inloggen via single sign-on (SSO) en meervoudige authenticatie en bieden beheer-tools voor de IT-afdeling. Klanten van Okta zijn veelal grote bedrijven, met tienduizenden tot honderdduizenden medewerkers en op hun beurt miljoenen klanten. Voor Okta begint alles daarom bij veiligheid, vertelt Bose. ‘Wij zetten ons erg in voor het tegengaan van identity theft attacks, want die vorm van digitale inbraak heeft enorme gevolgen’. Iedere organisatie die schade heeft ondervonden omdat een hacker binnen wist te komen door het account van een medewerker te kapen, kan dat beamen. ‘Door de opmars van AI agents komen er nog meer accounts binnen een organisatie. Die zogeheten non-human identities moet je even goed beveiligen als menselijke accounts’, stelt Bose. 

Vier punten 

Shiven Ramji haakt aan, als president van Auth0, een bedrijfsonderdeel binnen Okta. ‘Security is nog een groot aandachtspunt bij de ontwikkeling en het gebruik van AI agents door bedrijven, merken wij. Wij als Okta sporen ontwikkelaars bij organisaties daarom aan om security als basis te nemen bij AI agents. Daar hanteren wij een plan met vier punten voor’.   

Dat plan is niet geheel verrassend gebaseerd op organisaties die werken met het Auth0-platform en start met het vereiste dat AI agents de identiteit van een gebruiker moeten verifiëren. Kortom: is de gebruiker ook daadwerkelijk wie hij zegt dat hij is in een chat- of e-mailgesprek?

Okta’s software kan AI agents zo’n check laten uitvoeren, waarna andere acties pas volgen na goedkeuring. Het tweede punt is een zogeheten token vault, waarbij AI agents via het Okta-platform tokens verkrijgen om op veilige wijze te communiceren met diensten als Slack en Gmail. Die manier van werken voorkomt dat AI agents per ongeluk toegang krijgen tot verkeerde of te veel API’s, maar ook dat ze data lekken bij andere bronnen of juist data tekortkomen om hun taak uit te voeren.

Het derde punt hangt hiermee samen: een AI agent rondt een taak niet altijd direct af, maar kan dat – afhankelijk van de opdracht – ook minuten, uren of dagen later doen. Houd daarom rekening met een mens-in-de-loop-functie zodat een menselijke medewerker of eindgebruiker controle houdt op wat de AI agent in de tussentijd doet.

Tot slot het punt waar Ramji de meeste aandacht aan besteedt in zijn presentatie: hele duidelijke permissies voor AI die externe bronnen raadpleegt. ‘Het is belangrijk dat een AI agent alleen toegang tot informatie heeft die echt nodig is, en niet tot andere data’. Niet alleen om de kans op een datalek te verkleinen maar ook om te voldoen aan risicomanagement en wet- en regelgeving. Ramji: ‘Vertrouwen in de kwaliteit en betrouwbaarheid van de AI agent is heel belangrijk, want zonder durf je een AI agent niet aan het werk te zetten’. 

Controle

Vertrouwen is net als security de basis, zegt ook Clare Hickie als EMEA-CTO van Workday. Deze HR-softwarereus heeft ook veel wereldbekende merken als klant en bouwt vanuit zijn Europese hoofdkantoor in Dublin, Ierland, aan een eigen AI-platform. De software ‘leest’ het Workday-scherm van de gebruiker om de context van vragen te begrijpen. Zo kan één van Workday’s AI agents persoonlijke antwoorden geven als een medewerker bijvoorbeeld vraagt of zijn overuren zijn meegenomen in de salarisberekening of wat een bepaalde belasting op het loonstrookje betekent.

Veel HR-afdelingen hebben hun handen vol aan uiteenlopende typen vragen, signaleert Workday op basis van gesprekken met zijn elfduizend klanten. Een AI agent voor gebruikers kan de werkdruk op de HR-afdeling omlaag brengen. ‘Het is belangrijk dat mensen en computers gaan samenwerken’, stelt Hickie. ‘Het is echter ook belangrijk dat mensen controle houden over die samenwerking en dus bijvoorbeeld bepalen tot welke informatie AI agents toegang hebben en welke acties ze kunnen uitvoeren. Er zijn allerlei usecases voor AI in je organisatie, maar daar hangen ook verschillende risico’s aan’.  

Hickie haalt het loonstrookje aan, waar de AI agent gepersonaliseerde informatie over kan geven. ‘Bij zo’n loonstrookje is er een theoretisch risico dat iemands loonstrookje door de war gaat als de AI niet goed werkt. Dat verwart, raakt de werknemer direct en ondermijnt het vertrouwen in AI agents’. In het kader van risicomanagement is het daarom heel belangrijk dat een organisatie een beheerstrategie heeft voor AI agents, stelt Hickie. In die strategie moet onder andere duidelijk staan hoe je een AI agent kunt onboarden, zijn rol of rollen kunt toewijzen en veranderen, prestaties kunt meten en zijn mate van toegang tot systemen kunt veranderen. Zorg ook altijd voor een knop waarmee je een AI agent kunt deactiveren en offboarden, mocht de software om welke reden dan ook ontsporen. 

Waarde toevoegen 

In een goede strategie gaat het echter niet alleen om de veiligheid van AI agents, vindt Hickie. Risicomanagement is weliswaar de basis, maar de CTO pleit er ook voor om AI agents te zien als een soort medewerkers. ‘Als organisatie wil je inzicht in de totale kosten van AI agents en wil je de effectiviteit van de AI agents begrijpen. Zo kun je monitoren in hoeverre AI agents daadwerkelijk groeien in hun rol en waarde toevoegen aan je organisatie’. 

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Melden als ongepast

Door u gemelde berichten worden door ons verwijderd indien ze niet voldoen aan onze gebruiksvoorwaarden.

Schrijvers van gemelde berichten zien niet wie de melding heeft gedaan.

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in