Overslaan en naar de inhoud gaan

Zo gebruiken cybercriminelen generatieve AI

  • Ook cybercriminelen gaan aan de slag met generatieve AI, zoals ChatGPT
  • Maar ze gebruiken het nog vooral voor social engineering en deep fakes
  • Ook wordt generatieve AI gebruikt om de eigen malware-code te verbeteren
  • Lees ook: Deze securityrisico's kan ChatGPT vormen voor tech zelf
Een man praat met een malafide chatbot.
Shutterstock

ChatGPT, Dall-E en andere generatieve AI-systemen worden door tal van mensen gebruikt. Niet alleen voor legitieme doeleinden, maar ook voor cybercriminaliteit. Onderzoekers van Trend Micro en Google's Mandiant zetten eerder deze week op een rij hoe generatieve AI voor malafide doeleinden ingezet wordt. 

Generatieve AI zorgt al bijna een jaar voor een flinke schokgolf in de samenleving en we zien regelmatig nieuwe toepassingen naar boven komen. Maar in de criminele onderwereld is de disruptie bij lange na niet zo groot, constateren onderzoekers van zowel Trend Micro als Mandiant.

Ondergrondse forumgroepen die zich volledig op AI richten, laten zien dat de ontwikkeling met interesse gevolgd wordt. Toch is het niet zo dat criminelen massaal hun eigen AI's ontwikkelen en trainen. In plaats daarvan ziet Trend Micro dat er met name gesproken wordt over hoe ChatGPT ingezet kan worden, hoe censuur in ChatGPT verwijderd kunnen worden en of er criminele alternatieven zijn voor ChatGPT. 

Censuur omzeilen

Zeker het punt rondom censuur lijkt criminelen bezig te houden. ChatGPT reageert in de regel namelijk niet op illegale en controversiële onderwerpen, wat natuurlijk erg beperkend werkt in het werk van een cybercrimineel. 

Criminelen proberen daarom op verschillende manieren om deze beperking heen te komen, bijvoorbeeld door ChatGPT te 'jailbreaken'. Criminelen zoeken naar en maken prompts voor ChatGPT die om de censuur heen kunnen komen, en delen die vervolgens onderling. Zo zijn er prompts die een alterego maken voor ChatGPT, die geen ethische limitaties heeft. Maar ChatGPT-maker OpenAI zit hier bovenop en schakelt dergelijke pogingen weer uit.

Soms komt het wel voor dat criminelen hun eigen AI's gaan trainen, speciaal voor criminele doeleinden. Deze alternatieven voor ChatGPT - die pas sinds juni dit jaar verschijnen -zouden censuur omzeilen, anonimiteit beloven en malafide code genereren voor de gebruiker. Trend Micro ziet echter ook dat lang niet al die Large Language Models (LLM's) echt zijn en diverse 'modellen' weinig meer zijn dan een nieuw jasje om een jailbreaking-prompt voor ChatGPT.

Onderzoekers vermoeden zelfs dat er maar één echt voorbeeld is van een LLM speciaal gemaakt voor cybercriminelen: WormGPT. WormGPT verscheen in juni en was voor 100 euro per maand of 550 euro per jaar te gebruiken. Maar op 8 augustus is de dienstverlening gestopt. Volgens de maker is dat vanwege de vele aandacht voor WormGPT in de media.

Spam, phishing en deepfakes

Zowel Trend Micro als Mandiant ziet dat generatieve AI als ChatGPT met name gebruikt wordt als hulpmiddel in criminele campagnes, zoals spam en phishing. Er zijn inmiddels bijvoorbeeld diensten opgezet waarmee andere criminelen gebruikers zelf spam- en phishingmails kunnen laten genereren en versturen. 

Generatieve AI wordt ook gebruikt bij de verspreiding van nepnieuws. Naast ChatGPT zetten criminelen modellen in die video, audio en foto's kunnen maken, constateert Mandiant. Denk aan 'Generative Adversarial Networks' (GAN's), die realistische foto's maken van mensen, die weer gebruikt kunnen worden als profielfoto op een nepaccount. Of denk aan het genereren van foto's als die van een explosie vlakbij het Pentagon, die in mei dit jaar viral ging op sociale media.

AI-gebaseerde tools kunnen verder ingezet worden om bijvoorbeeld sneller en efficiënter gestolen en opensource-data te analyseren.

Malware ontwikkelen

Net zoals legitieme developers ChatGPT kunnen gebruiken om stukken code te genereren, doen makers van malware dat ook. Trend Micro ziet dat zij vooral om bepaalde functionaliteiten vragen, die ze vervolgens verwerken in malware of andere componenten. 

Mandiant verwacht dan ook dat cybercriminelen in de toekomst vaker LLM's gaan gebruiken om hun malware te verbeteren of om nieuwe malware te schrijven, waardoor de drempel hiervoor flink lager wordt. Minder vaardige malwaremakers kunnen daarmee bijvoorbeeld toch geavanceerdere malafide software schrijven. De verwachting is echter wel dat enige technische kennis en vereiste blijft. 

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in