Overslaan en naar de inhoud gaan

AI-malware is pas gevaarlijk als mensen ermee misleidt worden

AI-malware klinkt spannend, maar in de praktijk stelt het nog weinig voor, blijkt uit onderzoek van Google. De techgigant onderzocht vijf recent met generatieve AI ontwikkelde malwarefamilies en trof stuk voor stuk zwakke, eenvoudig detecteerbare varianten aan.

Danger
Raúl Nájera/Unsplash

Google bekeek vijf bekende malwares: PromptLock, FruitShell, PromptFlux, PromptSteal en QuietVault. Na analyse was het al snel duidelijk dat ze geen van allen een gevaar of operationele impact op voor verdedigers kunnen opleveren. Alle vijf gebruiken bekende technieken, missen cruciale functies en zijn daardoor makkelijk te herkennen en te blokkeren.

Volgens Google waren alle vijf varianten met eenvoudige endpoint‑beveiliging en statische signatures te herkennen. Dat betekent dat organisaties vooralsnog geen nieuwe verdedigingslijnen hoefden op te tuigen. 

Proof-of-concept

PromptLock, een voorbeeld uit een academische studie naar AI‑gestuurde ransomware, laat de beperkingen zien. Het programma mist basale onderdelen als persistente aanwezigheid op een systeem, laterale beweging binnen een netwerk en geavanceerde omzeiling van detectie. Het diende vooral als proof‑of‑concept, niet als nieuwe dreiging.

Het is dan ook de vraag of de AI-malware ooit echt bruikbaar zal worden. Beveiligingsexperts weten dat nog niet zo zeker. Onafhankelijk onderzoeker Kevin Beaumont zegt tegenover Ars Technica dat de ontwikkeling “pijnlijk traag” gaat en dat hij geen beweging richting een geloofwaardige dreiging ziet. Een andere expert stelt dat AI vooral het werk van auteurs ondersteunt, zonder dat er “enger‑dan‑normaal” malware ontstaat. Met andere woorden: er is hulp, maar geen doorbraak.

Dat staat haaks op verhalen van bedrijven die AI‑malware als nieuwe paradigma schetsen. Zo melden leveranciers dat LLM’s ontwikkelaars helpen bij het bouwen van ransomware met geavanceerde anti‑herstel en verstoptechnieken. In de praktijk tonen zowel Google als andere partijen juist de grenzen: dit soort automatisering faalt vaak en er zijn geen nieuwe technieken gevonden.

De mens is wederom een zwakke schakel

Wel waarschuwt Google voor sociale trucs die AI‑modellen kunnen misleiden. Een actor wist de guardrails van Gemini te omzeilen door te poseren als white‑hat onderzoeker tijdens een capture‑the‑flag‑oefening. Google zegt de maatregel inmiddels beter te hebben afgesteld. Het laat zien dat de zwakke plek niet altijd de code is, maar soms de mens en het proces eromheen.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Melden als ongepast

Door u gemelde berichten worden door ons verwijderd indien ze niet voldoen aan onze gebruiksvoorwaarden.

Schrijvers van gemelde berichten zien niet wie de melding heeft gedaan.

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in