AI-deepfakes worden steeds vaker gebruikt in cybercrime. Zo bescherm je jezelf ertegen
- Cybercriminelen grijpen in toenemende mate naar het gebruik van AI-deepfake video's.
- Het misleiden van mensen met dit soort video's kan leiden ransomware-aanvallen
- Jezelf ertegen beschermen wordt steeds lastiger, aangezien de deepfakes steeds lastiger te detecteren zijn.
- Lees ook: ‘Nederland detecteert cyberbedreigingen vaker dan vrijwel alle andere landen’

Je hebt het ongetwijfeld voorbij zien komen: de video van Dick Schoof waarin hij een nieuw investeringsplatform aanprijst. Het probleem is alleen dat het niet Schoof was die je zag, maar een het om een AI-deepfake video ging met de intentie om mensen op te lichten. Een groeiend probleem, want het aantal van dit soort video's dat voor kwaadwillende doeleinden gebruikt wordt, groeit met 900 procent per jaar.
Nu is bovenstaande een voorbeeld dat vooral wordt ingezet om individuen te misleiden. Er zijn ook legio voorbeelden te noemen waarbij bedrijven voor miljoenen euro's zijn opgelicht doordat neppe video's van bekende mensen werden ingezet.
Neem bijvoorbeeld het Hongkongse bedrijf Arup. Een medewerker van dat bedrijf werd in 2024 in een meeting gelokt waarin meerdere van zijn managers aanwezig waren. Ze overtuigden hem om meer dan 25 miljoen dollar naar meerdere rekeningnummers over te maken. Pas later kwam aan het licht dat hij slechts de enige mens van vlees en bloed in die meeting was en dat zijn 'collega's' allemaal door AI gegenereerd waren.
Nog wat recenter werd de Britse winkelketen M&S getroffen door een ransomware-aanval. De crimineel bleek binnen gekomen te zijn door een medewerker te misleiden door zich voor te doen als een collega en via deze manier belangrijke informatie te ontfutselen.
Opkomst van AI-deepfakes als wapen
Bovenstaande voorbeelden geven aan dat AI-deepfakes niet meer alleen worden ingezet om informatiestromen te manipuleren, maar ook steeds vaker op detailniveau worden ingezet door het digitale dievengilde.
Dat heeft vermoedelijk te maken met het feit dat het steeds eenvoudiger wordt om dit AI-deepfakes te genereren. Met een beetje kennis van generatieve AI-tools, een foto en enkele seconden aan opnames van de stem van het doelwit in kwestie, heb je binnen een paar minuten een video in elkaar geknutseld die amper van echt te onderscheiden is.
Tenminste, als het aankomt op mensen die de persoon in de nepvideo kunnen identificeren als gegenereerd door AI. Uit een in wetenschappelijk tijdschrift Nature gepubliceerd onderzoek blijkt namelijk dat ruwweg de helft van de participanten in het onderzoek de echte mensen van AI's konden onderscheiden.
Dat percentage zal alleen maar dalen, aangezien de technologie zich zienderogen verbeterd.
Hoe kun je AI-deepfakes detecteren?
Daarmee rijst natuurlijk de vraag: als mensen de AI-deepfakes niet meer kunnen herkennen, hoe bescherm je jezelf dan tegen dit groeiende gevaar?
In de eerste plaats blijft logisch nadenken een belangrijke factor. Als er ook maar iets is dat niet helemaal klopt in een digitale interactie met een persoon die je normaliter goed kent, dan is het niet heel gek om na die interactie even navraag te doen bij de persoon in kwestie. Een dubbelcheck als het ware. Had het slachtoffer in het voorbeeld van Arup dit gedaan, dan was er waarschijnlijk geen geld overgemaakt en was er tijdig actie ondernomen, omdat duidelijk was dat er malafide praktijken op het netwerk van het bedrijf plaatsvonden.
Toch lijkt dit steeds lastiger te worden, aangezien de fakes steeds overtuigender worden. Het lijkt dus zaak om jezelf met AI te beschermen tegen AI. Dat is op z'n minst effectiever.
Nieuwe real-time AI-detectietools kunnen onder optimale omstandigheden met ruwweg 95 procent accuraatheid vaststellen of er sprake is van misleiding met AI-deepfakes.
Vanzelfsprekend hebben ook deze tools een probleem, want ze lopen eigenlijk altijd achter de feiten aan. Ze gebruiken algoritmes die gebaseerd zijn op bestaande technologieën. Het bijhouden van de nieuwste ontwikkelingen is daarbij een uitdaging waardoor het gebruik van dit soort tools nooit helemaal waterdicht zal zijn.
Mensen vervangen door AI
Een andere manier van de inzet van AI is wellicht wat minder voor de hand liggend: het vervangen van mensen door AI.
Het idee hierachter is het feit dat cybercriminelen doorgaans het liefst mensen als doelwit nemen als beginpunt om ergens binnen te komen. Het is immers vele malen eenvoudiger om een medewerker van de klantenservice te overtuigen van iets, dan het is om een geautomatiseerd systeem op het verkeerde been te zetten.
Natuurlijk geven we allemaal de voorkeur aan menselijke interactie boven het chatten met een AI-chatbot, maar je kunt je ongetwijfeld voorstellen dat een persoon wat eerder geneigd is om zijn in paniek zijnde manager te helpen met het herstellen van een wachtwoord, dan dat een goed ingerichte AI-chatbot dat zou zijn.
Meer (biometrische) verificatie
Een andere en mogelijk meest waterdichte manier van beschermen tegen AI-deepfakes is meer verificatiestappen in processen introduceren.
In het geval van de bovenstaande menselijke medewerker die zijn neppe manager aan een nieuw wachtwoord wil helpen, zou diegene een verificatiestap kunnen uitvoeren waarmee duidelijk wordt dat de manager ook daadwerkelijk de manager is. Een relatief eenvoudige two-factor authentication zoals een code verzenden naar de beveiligde app op de telefoon van de manager en deze herhalen tegen de helpende persoon, zou al een hoop problemen kunnen afvangen. Ook kunnen alternatieve en beveiligde communicatiekanalen en verplichte wachtperiodes bescherming bieden.
Nog een stap verder is het invoeren van biometrische verificatie. Dit gaat bijvoorbeeld van het ietwat controversiële scannen van de iris, maar kan ook inhouden dat menselijke patronen worden herkend. Denk hierbij aan de herkenning van de manier waarop een persoon typt, of hoe hij of zij in het algemeen met een computer omgaat. Deze manier van verificatie wordt al bij meerdere banken ingezet tegen financiële fraude.
Kennis van de gevaren van AI-deepfakes
Als laatste helpt het natuurlijk altijd als iedereen binnen een organisatie op de hoogte is van de risico's van AI-deepfakes en hoe deze zich kunnen voordoen. Het is belangrijk dat mensen zich blijven realiseren dat het heel goed mogelijk is dat degene met wie ze via een digitaal kanaal een interactie hebben, niet echt hoeft te zijn.
Zoals eerder gezegd, blijft het belangrijk dat we met z'n allen continue kritisch blijven kijken naar de ontwikkelingen op het gebied van AI en ons er terdege bewust van zijn dat deze technologie op meerdere manieren een impact op ons leven en ons werk kan hebben.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee