Agentic AI vraagt om nieuwe controletools voor autonome AI-agents
De introductie van agentic AI brengt nieuwe risico’s met zich mee, zoals onvoorspelbaar gedrag van agents en schijnbaar onverklaarbare variaties in de prestaties. De inzet van agents vereist daarom nieuwe controlemogelijkheden. Dynatrace anticipeert op een snelle adoptie van agentic AI met toevoegingen aan het eigen observabilityplatform, die vandaag worden gepresenteerd.
Organisaties lukt het steeds beter agenttechnologie in te zetten om taken te automatiseren. Die variëren van code schrijven tot het vervangen van menselijke interactie met front- en backendsystemen. Toch blijven nog veel toepassingen steken in de experimenteerfase. Hoewel de pilotprojecten veelbelovend zijn, blijkt de implementatie lastig, zeker als meerdere agents van verschillende leveranciers met elkaar interactie moeten aangaan in complexe omgevingen. Het is ondoenlijk om mensen de acties van een groot aantal agents in de gaten te houden om problemen te signaleren en waar nodig in te grijpen.
Dynatrace heeft al jaren ervaring met het analyseren van de prestaties van toepassingen. Door ‘trace’-data te verzamelen en te analyseren maakt het ‘observability’-platform inzichtelijk waarom applicaties traag of foutgevoelig zijn. Intelligente agents vormen nu een nieuwe laag op het applicatielandschap waarin software-operaties autonoom worden uitgevoerd. Tijdens de jaarlijkse gebruikersbijeenkomst Perform 2026 onthulde Dynatrace vandaag toevoegingen aan het observability-platform gericht op het volgen en beheren van deze nieuwe laag van intelligente, autonoom werkende agents.
“Klanten zijn bezig met vragen over hoe ze vertrouwen kunnen hebben in de werking van AI-applicaties en willen debugging-mogelijkheden als er toch iets fout gaat”, zegt Chris Geebelen, Regional Director Solutions Engineering bij Dynatrace. “Bovendien leven er vragen over zaken als compliance bij het gebruik van AI-agents en hoe kan worden gecontroleerd of agents zich houden aan de guardrails.” Die vangrails worden bij de implementatie ingesteld en moeten voorkomen dat agents op eigen initiatief ongeoorloofde acties in gang zetten.
Verzameling en analyse van nieuwe data
Om de extra controles uit te kunnen voeren, slaat het observabilityplatform data over de agents op in Grail, waar dat eerst niet mogelijk was. Grail is het data lakehouse van Dynatrace waarin alle relevante data van onder meer frontend, backend, logs en beveiligingsincidenten worden opgeslagen. Vervolgens creëert de nieuwe Smartscape-toevoeging een dynamisch dependency-model dat inzicht geeft in alle onderlinge relaties tussen services en componenten.
De AI-engine Dynatrace AI zorgt vervolgens voor automatische detectie, rootcause-analyse en besluitvorming. “Je kunt zelf detectieregels toevoegen en automatische acties koppelen aan incidenten. Die noemen we ‘workflows’. Daarmee kun je bijvoorbeeld automatisch op- en afschalen wanneer dat nodig is of zelfs bij kritieke fouten van AI-agents snel handelingen blokkeren. Als je moet wachten tot een mens ingrijpt, ben je al snel tientallen minuten of misschien wel een uur verder. Dan kan de mogelijke schade van zo’n handeling alleen maar groter worden. Wanneer je zo’n blokkade automatiseert kan de schade in een paar minuten al hersteld zijn.”
Meer vertrouwen bij implementatie
Het platform biedt ook nieuwe mogelijkheden voor ontwikkelaars en DevOps-teams om snellere foutanalyse uit te voeren of te helpen bij een vergelijking tussen verschillende AI-modellen hoe ze zich gedragen in een productieomgeving. “Het platform helpt organisaties zo om met meer vertrouwen nieuwe applicaties in hun productieomgeving te implementeren”, stelt Geebelen.

Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee