Overslaan en naar de inhoud gaan

Druk op AI-implementatie ondermijnt veiligheidsdenken

Concurrentiedruk en interne eisen winnen het vaak van security, waardoor de risico’s van AI bewust worden geaccepteerd of genegeerd. Van de Nederlandse IT-verantwoordelijken zegt 74 procent druk te voelen om AI-initiatieven snel goed te keuren, zelfs met veiligheidszorgen. Bij de zakelijke leiding ligt dat percentage op 66 procent, blijkt uit onderzoek van de AI-divisie van Trend Micro.

Man staat met handen in het haar te kijken naar scherm met dalende grafiek
© Shutterstock

Organisaties zijn zich vaak wel bewust van de risico’s van de inzet van AI, maar missen het juiste beleid om ze te beheersen. De druk om snelheid te maken met de implementatie leidt ertoe dat AI in kritieke systemen terechtkomt zonder voldoende controlemechanismen. Volgens het onderzoek vindt bijna de helft (47 procent) van Nederlandse organisaties dat AI sneller evolueert dan ze het kunnen beveiligen. Slechts iets meer dan een kwart vertrouwt op eigen kennis van AI-wetgeving. Ongeveer een kwart van de ondervraagden heeft een officieel AI-beleid. De redenen dat zo’n beleid er nog niet is, zijn onder meer onzekerheden over de regelgeving. Ook een gebrek aan duidelijke verantwoordelijkheden noemen de respondenten als een probleem voor de beleidsvorming.

Agentic AI vergroot risico verder

De opmars van agentic AI vergroot de zorgen over de digitale beveiliging bij organisaties. Zo verwacht 40 procent dat het aanvalsoppervlak toeneemt, denkt 35 procent dat de blootstelling van gevoelige data toeneemt en ziet 32 procent een gevaar in het misbruik van ‘vertrouwde status’ omdat agents automatisch toegangsrechten krijgen.

Aanvallers kunnen hier handig op inspelen omdat zij ook in toenemende mate AI inzetten. Ze passen geraffineerdere phishing toe, maar kunnen ook kwaadaardige instructies verstoppen in data die de AI leest en vervolgens acties uitvoert zonder menselijke controle.

Gedegen beleid is essentieel

Beveiligingsteams lopen vaak achter de top-down besluiten over AI aan, concluderen de onderzoekers. Dit leidt tot noodmaatregelen en een toename van niet-goedgekeurde tools, ofwel shadow-AI.
Snelle AI-adoptie zonder dat governance, eigenaarschap en controlemechanismen goed zijn belegd, vergroot dus de risico’s die organisaties niet goed kunnen beheersen.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Melden als ongepast

Door u gemelde berichten worden door ons verwijderd indien ze niet voldoen aan onze gebruiksvoorwaarden.

Schrijvers van gemelde berichten zien niet wie de melding heeft gedaan.

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in