Hoe fluit je een AI-agent terug?
AI-agents nemen autonoom beslissingen. Ze kunnen daarbij fouten maken. Monitoring en guardrails helpen bij de preventie van incidenten, maar niet bij herstel als het toch fout gaat. Solide procedures voor hersteloperaties bij AI-gerelateerde verstoringen zijn dus erg belangrijk voor de bedrijfscontinuïteit.
De introductie van agentic AI vormt een nieuwe fase in de toepassing van kunstmatige intelligentie. De agents zetten zelfstandig acties in gang op basis van beslissingen van AI zonder dat de mens daar direct controle over heeft. Dat biedt grote voordelen doordat ze taken kunnen uitvoeren op machinesnelheid, wat leidt tot efficiëntere processen.
Ze introduceren ook nieuwe vormen van fouten en risico’s, waarschuwt Richard Cassidy, EMEA CISO bij Rubrik in een opinie-artikel bij ComputerWeekly. Agents kunnen data onbedoeld wissen of foutieve acties uitvoeren waardoor dataverlies optreedt of processen worden verstoord. In ernstiger gevallen kan ook reputatieschade optreden. De snelheid waarmee agents werken, verandert zo ook in een nadeel, omdat daardoor foutieve handelingen veel meer schade kunnen aanbrengen dan bij menselijk handelen.
Complexiteit verhoogt kans op fouten
De risico’s zijn natuurlijk te beheersen door het mandaat van de agents zeer zorgvuldig te definiëren en af te kaderen in de governance van de agent. De realiteit is echter dat er altijd scenario’s zijn waarin iets misgaat omdat geen enkel systeem 100 procent foutloos is. Naarmate organisaties AI-technologie meer implementeren, neemt de complexiteit van de omgeving toe, gaan AI-agents met elkaar samenwerken en kunnen ze beslissingen nemen op basis van verkeerde aannames of onvolledige data. Dat kan leiden tot uitkomsten die de ontwerpers of beheerders niet hadden voorzien.
De huidige tools voor het beheer van AI-agents zijn vooral gericht op monitoring en preventie door het aanbrengen van guardrails. Ze bieden echter geen oplossing als er onverhoopt toch iets misgaat.
Rollback en forensische analyse nodig
Volgens Cassidy moeten CIO’s daarvoor lessen trekken uit de aanpak van cybersecurity. Snel herstel is essentieel. Ook bij AI-gerelateerde fouten moeten de systemen die productieprocessen aansturen geschikt zijn voor een onmiddellijke rollback. Ook is er volgens Cassidy nu nog te weinig aandacht voor forensisch inzicht. Organisaties moeten niet alleen kunnen zien wat er misging, maar ook waarom het misging. De agentontwerpers moeten er rekening mee houden dat er essentiële logdata worden gegenereerd om te kunnen achterhalen hoe de fout is ontstaan.

Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee