Overslaan en naar de inhoud gaan

Noord-Korea en China gebruiken ChatGPT voor cyberaanvallen

Steeds vaker blijken hackers uit Noord-Korea en China kunstmatige intelligentie in te zetten om hun digitale criminele zaakjes te vergemakkelijken. Waar voorheen nog handmatig werd gefraudeerd met valse identiteiten en nep-cv’s, nemen AI-tools als ChatGPT, Claude en Gemini dit werk nu grotendeels uit handen.

AI op iPhone
Solen Feyissa/Unsplash

Zo wist de Noord-Koreaanse hackersgroep Kimsuky onlangs met behulp van ChatGPT overtuigende nagemaakte militaire ID's te fabriceren, meldde cybersecuritybedrijf Genians in een blog. De phishingmails met deze valse ID’s leken rechtstreeks afkomstig van een Zuid-Koreaanse overheidsinstantie. Niet alleen in Zuid-Korea, maar ook in Japan en de VS zijn inmiddels verschillende organisaties slachtoffer geworden van deze slimme trucs.

Soliciteren met AI

Het blijft niet bij valse identiteiten. Noord-Koreaanse hackers gebruiken AI-modellen ook om aan de slag te komen bij grote Amerikaanse techbedrijven. Met hulp van AI-chatbot Claude schreven ze sollicitatiebrieven, bouwden portfolio’s en konden ze zelfs technische opdrachten voltooien, liet Anthropic, de maker van Claude, vorige maand weten in een blog.

Niet alleen Noord-Korea gebruikt de kracht van AI, China heeft het ook al meerdere keren ingezet. Chinese hackers zijn al betrapt op het gebruiken van AI als technisch adviseur om telecombedrijven, landbouwsystemen en overheidsdatabases in Vietnam te hacken. AI helpt hen met het schrijven van code, analyseren van beveiliging en het plannen van aanvallen.

OpenAI, Google en Anthropic grijpen in

De AI-makers zien zelf ook het misbruik van hun AI-chatbots en zeggen er actief aan te werken. Zo merkt Anthropic op dat ze bij elk misbruik leren hoe dit gedaan wordt en dat ze hierop adequate beperkingen kunnen integreren.

Bij OpenAI gaat het nog een stapje verder. De ChatGPT-maker geeft aan dat het actief accounts in Noord-Korea aan het blokkeren is die de kunstmatige intelligentie misbruiken voor bijvoorbeeld het maken van neppe ID's.

Google hield zich relatief op de vlakte en geeft tot dusver aan dat het genoeg veiligheidsmaatregelen in acht heeft genomen waardoor dit soort misbruik helemaal niet mogelijk zou moeten zijn.

AI-cybercrime voor iedereen

Als er één ding duidelijk wordt uit dit nieuwe en voorgaande rapporten, dan is het heel erg duidelijk dat de opkomst van AI leidt tot een vereenvoudiging van het werk dat cybercriminelen versimpelen, of dat nu statelijke actoren zijn of niet. Het maakt het ook dat de het aan de andere kant lastiger verdedigen is, aangezien de technologie vooral ingezet lijkt te worden om mensen te misleiden en via die weg een ingang te kunnen creëeren. 

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Melden als ongepast

Door u gemelde berichten worden door ons verwijderd indien ze niet voldoen aan onze gebruiksvoorwaarden.

Schrijvers van gemelde berichten zien niet wie de melding heeft gedaan.

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in