Overslaan en naar de inhoud gaan

AI-deepfakes worden steeds vaker gebruikt in cybercrime. Zo bescherm je jezelf ertegen

Deepfake

Je hebt het ongetwijfeld voorbij zien komen: de video van Dick Schoof waarin hij een nieuw investeringsplatform aanprijst. Het probleem is alleen dat het niet Schoof was die je zag, maar een het om een AI-deepfake video ging met de intentie om mensen op te lichten. Een groeiend probleem, want het aantal van dit soort video's dat voor kwaadwillende doeleinden gebruikt wordt, groeit met 900 procent per jaar.

Nu is bovenstaande een voorbeeld dat vooral wordt ingezet om individuen te misleiden. Er zijn ook legio voorbeelden te noemen waarbij bedrijven voor miljoenen euro's zijn opgelicht doordat neppe video's van bekende mensen werden ingezet.

Neem bijvoorbeeld het Hongkongse bedrijf Arup. Een medewerker van dat bedrijf werd in 2024 in een meeting gelokt waarin meerdere van zijn managers aanwezig waren. Ze overtuigden hem om meer dan 25 miljoen dollar naar meerdere rekeningnummers over te maken. Pas later kwam aan het licht dat hij slechts de enige mens van vlees en bloed in die meeting was en dat zijn 'collega's' allemaal door AI gegenereerd waren.

Nog wat recenter werd de Britse winkelketen M&S getroffen door een ransomware-aanval. De crimineel bleek binnen gekomen te zijn door een medewerker te misleiden door zich voor te doen als een collega en via deze manier belangrijke informatie te ontfutselen. 

Opkomst van AI-deepfakes als wapen

Bovenstaande voorbeelden geven aan dat AI-deepfakes niet meer alleen worden ingezet om informatiestromen te manipuleren, maar ook steeds vaker op detailniveau worden ingezet door het digitale dievengilde. 

Dat heeft vermoedelijk te maken met het feit dat het steeds eenvoudiger wordt om dit AI-deepfakes te genereren. Met een beetje kennis van generatieve AI-tools, een foto en enkele seconden aan opnames van de stem van het doelwit in kwestie, heb je binnen een paar minuten een video in elkaar geknutseld die amper van echt te onderscheiden is.

Tenminste, als het aankomt op mensen die de persoon in de nepvideo kunnen identificeren als gegenereerd door AI. Uit een in wetenschappelijk tijdschrift Nature gepubliceerd onderzoek blijkt namelijk dat ruwweg de helft van de participanten in het onderzoek de echte mensen van AI's konden onderscheiden.

Dat percentage zal alleen maar dalen, aangezien de technologie zich zienderogen verbeterd.

Hoe kun je AI-deepfakes detecteren?

Daarmee rijst natuurlijk de vraag: als mensen de AI-deepfakes niet meer kunnen herkennen, hoe bescherm je jezelf dan tegen dit groeiende gevaar?

In de eerste plaats blijft logisch nadenken een belangrijke factor. Als er ook maar iets is dat niet helemaal klopt in een digitale interactie met een persoon die je normaliter goed kent, dan is het niet heel gek om na die interactie even navraag te doen bij de persoon in kwestie. Een dubbelcheck als het ware. Had het slachtoffer in het voorbeeld van Arup dit gedaan, dan was er waarschijnlijk geen geld overgemaakt en was er tijdig actie ondernomen, omdat duidelijk was dat er malafide praktijken op het netwerk van het bedrijf plaatsvonden.

Toch lijkt dit steeds lastiger te worden, aangezien de fakes steeds overtuigender worden. Het lijkt dus zaak om jezelf met AI te beschermen tegen AI. Dat is op z'n minst effectiever.

Nieuwe real-time AI-detectietools kunnen  onder optimale omstandigheden met ruwweg 95 procent accuraatheid vaststellen of er sprake is van misleiding met AI-deepfakes. 

Vanzelfsprekend hebben ook deze tools een probleem, want ze lopen eigenlijk altijd achter de feiten aan. Ze gebruiken algoritmes die gebaseerd zijn op bestaande technologieën. Het bijhouden van de nieuwste ontwikkelingen is daarbij een uitdaging waardoor het gebruik van dit soort tools nooit helemaal waterdicht zal zijn.

Mensen vervangen door AI

Een andere manier van de inzet van AI is wellicht wat minder voor de hand liggend: het vervangen van mensen door AI. 

Het idee hierachter is het feit dat cybercriminelen doorgaans het liefst mensen als doelwit nemen als beginpunt om ergens binnen te komen. Het is immers vele malen eenvoudiger om een medewerker van de klantenservice te overtuigen van iets, dan het is om een geautomatiseerd systeem op het verkeerde been te zetten.

Natuurlijk geven we allemaal de voorkeur aan menselijke interactie boven het chatten met een AI-chatbot, maar je kunt je ongetwijfeld voorstellen dat een persoon wat eerder geneigd is om zijn in paniek zijnde manager te helpen met het herstellen van een wachtwoord, dan dat een goed ingerichte AI-chatbot dat zou zijn. 

Meer (biometrische) verificatie

Een andere en mogelijk meest waterdichte manier van beschermen tegen AI-deepfakes is meer verificatiestappen in processen introduceren.

In het geval van de bovenstaande menselijke medewerker die zijn neppe manager aan een nieuw wachtwoord wil helpen, zou diegene een verificatiestap kunnen uitvoeren waarmee duidelijk wordt dat de manager ook daadwerkelijk de manager is. Een relatief eenvoudige two-factor authentication zoals een code verzenden naar de beveiligde app op de telefoon van de manager en deze herhalen tegen de helpende persoon, zou al een hoop problemen kunnen afvangen. Ook kunnen alternatieve en beveiligde communicatiekanalen en verplichte wachtperiodes bescherming bieden.

Nog een stap verder is het invoeren van biometrische verificatie. Dit gaat bijvoorbeeld van het ietwat controversiële scannen van de iris, maar kan ook inhouden dat menselijke patronen worden herkend. Denk hierbij aan de herkenning van de manier waarop een persoon typt, of hoe hij of zij in het algemeen met een computer omgaat. Deze manier van verificatie wordt al bij meerdere banken ingezet tegen financiële fraude.

Kennis van de gevaren van AI-deepfakes

Als laatste helpt het natuurlijk altijd als iedereen binnen een organisatie op de hoogte is van de risico's van AI-deepfakes en hoe deze zich kunnen voordoen. Het is belangrijk dat mensen zich blijven realiseren dat het heel goed mogelijk is dat degene met wie ze via een digitaal kanaal een interactie hebben, niet echt hoeft te zijn.

Zoals eerder gezegd, blijft het belangrijk dat we met z'n allen continue kritisch blijven kijken naar de ontwikkelingen op het gebied van AI en ons er terdege bewust van zijn dat deze technologie op meerdere manieren een impact op ons leven en ons werk kan hebben.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Melden als ongepast

Door u gemelde berichten worden door ons verwijderd indien ze niet voldoen aan onze gebruiksvoorwaarden.

Schrijvers van gemelde berichten zien niet wie de melding heeft gedaan.

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in