AI-malware is pas gevaarlijk als mensen ermee misleidt worden
AI-malware klinkt spannend, maar in de praktijk stelt het nog weinig voor, blijkt uit onderzoek van Google. De techgigant onderzocht vijf recent met generatieve AI ontwikkelde malwarefamilies en trof stuk voor stuk zwakke, eenvoudig detecteerbare varianten aan.
Google bekeek vijf bekende malwares: PromptLock, FruitShell, PromptFlux, PromptSteal en QuietVault. Na analyse was het al snel duidelijk dat ze geen van allen een gevaar of operationele impact op voor verdedigers kunnen opleveren. Alle vijf gebruiken bekende technieken, missen cruciale functies en zijn daardoor makkelijk te herkennen en te blokkeren.
Volgens Google waren alle vijf varianten met eenvoudige endpoint‑beveiliging en statische signatures te herkennen. Dat betekent dat organisaties vooralsnog geen nieuwe verdedigingslijnen hoefden op te tuigen.
Proof-of-concept
PromptLock, een voorbeeld uit een academische studie naar AI‑gestuurde ransomware, laat de beperkingen zien. Het programma mist basale onderdelen als persistente aanwezigheid op een systeem, laterale beweging binnen een netwerk en geavanceerde omzeiling van detectie. Het diende vooral als proof‑of‑concept, niet als nieuwe dreiging.
Het is dan ook de vraag of de AI-malware ooit echt bruikbaar zal worden. Beveiligingsexperts weten dat nog niet zo zeker. Onafhankelijk onderzoeker Kevin Beaumont zegt tegenover Ars Technica dat de ontwikkeling “pijnlijk traag” gaat en dat hij geen beweging richting een geloofwaardige dreiging ziet. Een andere expert stelt dat AI vooral het werk van auteurs ondersteunt, zonder dat er “enger‑dan‑normaal” malware ontstaat. Met andere woorden: er is hulp, maar geen doorbraak.
Dat staat haaks op verhalen van bedrijven die AI‑malware als nieuwe paradigma schetsen. Zo melden leveranciers dat LLM’s ontwikkelaars helpen bij het bouwen van ransomware met geavanceerde anti‑herstel en verstoptechnieken. In de praktijk tonen zowel Google als andere partijen juist de grenzen: dit soort automatisering faalt vaak en er zijn geen nieuwe technieken gevonden.
De mens is wederom een zwakke schakel
Wel waarschuwt Google voor sociale trucs die AI‑modellen kunnen misleiden. Een actor wist de guardrails van Gemini te omzeilen door te poseren als white‑hat onderzoeker tijdens een capture‑the‑flag‑oefening. Google zegt de maatregel inmiddels beter te hebben afgesteld. Het laat zien dat de zwakke plek niet altijd de code is, maar soms de mens en het proces eromheen.

Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee