Noord-Korea en China gebruiken ChatGPT voor cyberaanvallen
Steeds vaker blijken hackers uit Noord-Korea en China kunstmatige intelligentie in te zetten om hun digitale criminele zaakjes te vergemakkelijken. Waar voorheen nog handmatig werd gefraudeerd met valse identiteiten en nep-cv’s, nemen AI-tools als ChatGPT, Claude en Gemini dit werk nu grotendeels uit handen.

Zo wist de Noord-Koreaanse hackersgroep Kimsuky onlangs met behulp van ChatGPT overtuigende nagemaakte militaire ID's te fabriceren, meldde cybersecuritybedrijf Genians in een blog. De phishingmails met deze valse ID’s leken rechtstreeks afkomstig van een Zuid-Koreaanse overheidsinstantie. Niet alleen in Zuid-Korea, maar ook in Japan en de VS zijn inmiddels verschillende organisaties slachtoffer geworden van deze slimme trucs.
Soliciteren met AI
Het blijft niet bij valse identiteiten. Noord-Koreaanse hackers gebruiken AI-modellen ook om aan de slag te komen bij grote Amerikaanse techbedrijven. Met hulp van AI-chatbot Claude schreven ze sollicitatiebrieven, bouwden portfolio’s en konden ze zelfs technische opdrachten voltooien, liet Anthropic, de maker van Claude, vorige maand weten in een blog.
Niet alleen Noord-Korea gebruikt de kracht van AI, China heeft het ook al meerdere keren ingezet. Chinese hackers zijn al betrapt op het gebruiken van AI als technisch adviseur om telecombedrijven, landbouwsystemen en overheidsdatabases in Vietnam te hacken. AI helpt hen met het schrijven van code, analyseren van beveiliging en het plannen van aanvallen.
OpenAI, Google en Anthropic grijpen in
De AI-makers zien zelf ook het misbruik van hun AI-chatbots en zeggen er actief aan te werken. Zo merkt Anthropic op dat ze bij elk misbruik leren hoe dit gedaan wordt en dat ze hierop adequate beperkingen kunnen integreren.
Bij OpenAI gaat het nog een stapje verder. De ChatGPT-maker geeft aan dat het actief accounts in Noord-Korea aan het blokkeren is die de kunstmatige intelligentie misbruiken voor bijvoorbeeld het maken van neppe ID's.
Google hield zich relatief op de vlakte en geeft tot dusver aan dat het genoeg veiligheidsmaatregelen in acht heeft genomen waardoor dit soort misbruik helemaal niet mogelijk zou moeten zijn.
AI-cybercrime voor iedereen
Als er één ding duidelijk wordt uit dit nieuwe en voorgaande rapporten, dan is het heel erg duidelijk dat de opkomst van AI leidt tot een vereenvoudiging van het werk dat cybercriminelen versimpelen, of dat nu statelijke actoren zijn of niet. Het maakt het ook dat de het aan de andere kant lastiger verdedigen is, aangezien de technologie vooral ingezet lijkt te worden om mensen te misleiden en via die weg een ingang te kunnen creëeren.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee