Overslaan en naar de inhoud gaan

Verzekeraars weigeren de risico's van AI-agents te dekken

Grote verzekeraars willen de risico’s van AI-agents en chatbots niet langer dekken. Het is te lastig om in te schatten wat er fout kan gaan en wat de gevolgen hiervan kunnen zijn en wie er in dat geval voor aansprakelijk is.

Nee
Monstera Production/Pexels

Grotere verzekeraars zijn actief bezig om alle mogelijke aansprakelijkheden rond AI uit verzekeringscontracten te meubelen, vooral bij grotere partijen, meldt The Financial Times. Volgens de krant durven de verzekeraars het risico niet meer te nemen nadat er al legio knullige misstappen zijn gemaakt met de implementatie van AI, die toch leiden tot grote en vooral kostbare problemen.

Er zijn al kostbare incidenten met AI. Google kreeg een claim van minimaal 110 miljoen dollar na een foutieve AI-overzichtstekst over een zonnebedrijf. Air Canada moest een door de klantenservice-chatbot verzonnen korting honoreren. Ingenieursbureau Arup verloor 200 miljoen Hongkongse dollar door deepfake-fraude via een nagebootste manager in een videovergadering.

Polisuitsluitingen bij gebruik van AI-tools.

Grote spelers als AIG, Great American en WR Berkley hebben bij Amerikaanse toezichthouders dossiers ingediend voor polisuitsluitingen bij gebruik van AI-tools. De sector wijst op onvoorspelbare uitkomsten van grote taalmodellen. De zorg is wie verantwoordelijk is wanneer het misgaat. Ontwikkelaars, aanbieders en gebruikers kunnen allemaal een rol hebben.

Zelfs gespecialiseerde aanbieders van tech-verzekeringen kiezen ervoor geen risico’s van ChatGPT-achtige systemen te onderschrijven. Hierbij geven ze aan dat zelfs voor hen AI teveel een 'black-box' is. Met andere woorden: zelfs de experts durven zich niet te binden aan de werking van AI.

Een fout, grote gevolgen

Verzekeraars vrezen vooral een systeemrisico. Een grote fout bij één AI-provider kan duizenden klanten tegelijk raken. Dat is een geconcentreerde schade die moeilijk te dragen is. Cyberpolissen dekken doorgaans datalekken en inbreuken. Fouten door verkeerde antwoorden of hallucinaties vallen eerder onder errors-and-omissions. Nieuwe uitsluitingen maken die dekking smaller.

Sommige verzekeraars voegen zogenoemde 'endorsements' toe. Dit zijn beleidswijzigingen die AI-risico’s specificeren. Denk hierbij aan een beperkte dekking voor boetes onder de Europese AI-Verordening. Ook worden bepaalde AI-risico's helemaal niet meer gedekt en wordt dekking voor specifieke risico's tot in detail beschreven.

Juristen en tussenpersonen verwachten meer juridische strijd naarmate AI-makers hun verlies moeten nemen in rechtszaken. Ze waarschuwen dan ook dat de eerder genoemde toevoegingen minder dekking kunnen betekenen dan gedacht en dat er dus extra aandachtig gekeken moet worden naar de voorwaarden.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Melden als ongepast

Door u gemelde berichten worden door ons verwijderd indien ze niet voldoen aan onze gebruiksvoorwaarden.

Schrijvers van gemelde berichten zien niet wie de melding heeft gedaan.

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in