Innovatie & Strategie

Artificial Intelligence
Deepfakes detectie

Hoe leer je een AI om deepfakes te herkennen?

Zo herkent een AI welke beelden nep zijn en welke echt.

© CCO / Pixabay teguhjatipras
19 november 2019

Zo herkent een AI welke beelden nep zijn en welke echt.

2019 staat deels in het teken van de deepfakes; afbeeldingen en video’s die met kunstmatige intelligentie (AI) gemaakt of gemanipuleerd zijn. Maar er is een tegenbeweging: wetenschappers en bedrijven werken aan software die de gemanipuleerde of gegenereerde beelden kan herkennen. Een AI-wapenwedloop in de maak?

Op het internet circuleren inmiddels meerdere deepfake-afbeeldingen en -video’s, die nauwelijks van echt te onderscheiden zijn. Een groot probleem, want deze technologie kan ook voor malafide doeleinden ingezet worden. Denk aan manipulatie van mensen of markten door overtuigend nepnieuws. Of denk aan afpersing, waarbij mensen worden bedreigd met online zetten van nepbeelden met bijvoorbeeld seksuele handelingen.

Deepfakes kunnen dan ook een grote uitdaging gaan vormen, erkennen techbedrijven nu ook. Daarom zijn onder meer Microsoft en Facebook in september begonnen met de DeepFake Detection Challenge (DFDC). Met dat initiatief dagen de twee techreuzen universiteiten en gebruikers uit om oplossingen te ontwikkelen voor het herkennen van deepfakes.

Maar er zijn al meer projecten in ontwikkeling, waaronder via de Universiteit van Amsterdam. Professor Theo Gevers leidt daar de ontwikkeling van een AI die gegenereerde en gemanipuleerde beelden kan herkennen. De AI is inmiddels ondergebracht onder een commerciële spin-off: 3DUniversum. Maar hoe maak je zo'n AI eigenlijk? AG Connect krijgt een lesje in AI-ontwikkeling.

Deepfakes voor iedereen

De mens is al heel lang bezig met de analyse van gezichten aan de hand van technologie, vertelt Gevers. Er wordt al enige tijd onderzoek gedaan naar objectherkenning en gezichtsanalyses. Maar het genereren van gezichten, dat vergde lange tijd nog veel te veel rekenkracht.

Hardware-vooruitgang van de afgelopen jaren hebben ervoor gezorgd dat die rekenkracht wel beschikbaar is geworden. Met de opkomst van deep learning als uitvloeisel. Hierdoor kunnen veel complexere systemen met een hogere accuraatheid gemaakt worden. En daarmee zijn gezichten op beelden niet meer alleen te analyseren, maar ook te maken en te manipuleren. Bovendien hebben gewone computers ook een grotere rekencapaciteit gekregen, waardoor AI zijn weg vindt naar alledaagse gebruikers.

De samenkomst van deze ontwikkelingen zorgt ervoor dat veel mensen nu ook aan de slag kunnen met deepfakes. Dat gebeurt veelal in relatief onschuldige vorm. Waarschijnlijk zijn veel mensen zelfs met deepfakes bezig geweest zonder het te realiseren. Het bekende fenomeen van een zogeheten face swap is namelijk ook een vorm van deepfakes. En die optie zit zelfs in een veelgebruikte app als Snapchat. Daarnaast zijn er nog plots populaire apps die mensen hun oudere zelf laten zien. Een voorbeeld van beeldanalyse- en manipulatie pur sang.

3 soorten deepfakes

Naast het bekende geval van de face swap bestaan er nog twee andere soorten deepfakes. Deze zijn veel ingewikkelder en komen op dit moment nog veel minder voor. Eén van de andere twee soorten is de face sync. “Bij een face sync kun je de controle over het gezicht overnemen”, vertelt Gevers. 

Daarmee gaat deze technologie een stap verder dan de face swap. De face swap laat je namelijk alleen knippen en plakken. Je kunt dus wel het gezicht van Donald Trump over dat van Barack Obama plaatsen, maar niet veranderen wat er gezegd wordt of welke gezichtsuitdrukkingen er zijn.

Bij face sync kan dat juist wel, aldus Gevers. “Je kunt het gezicht mee laten bewegen met het beeld en iemand ook echt iets laten zeggen. Huur je een stemacteur in of gebruik je audio van het internet, dan kun je precies bepalen wat er uit de mond van het doelwit komt.” Face syncs komen echter nog niet veel voor. “Wij zijn één van de weinige partijen die dit kunnen maken.”

Dan is er nog een derde vorm, die steeds meer voorkomt: de generatieve vorm. Hiermee genereer je volledig nieuwe gezichten die er levensecht uitzien. Deze deepfakes zijn met het blote oog niet te onderscheiden van de gezichten van echte mensen. 

Hoe maak je deepfakes?

Het gevaar van goede deepfakes is dat je dus aan een foto of video niet altijd kunt zien of deze nou echt of nep is. Maar speciale software, zoals die van Gevers, kan dat wel. Die software wordt getraind op de fouten die de deepfake-technologie maakt.

AI’s die deepfakes maken doen dit namelijk in stappen. Allereerst moeten ze leren hoe een gezicht er uitziet; dat een gezicht twee ogen, een mond en een neus heeft. Daar wordt dan een 3D-model van gemaakt, waar een 2D-plaatje op geplakt kan worden. De AI controleert of de tweedimensionale afbeelding goed op het driedimensionale model is uitgelijnd, door bijvoorbeeld de mondhoeken van het plaatje aan te laten sluiten op de mondhoeken van het onderliggende 3D-model.

Een gebruiker kan vervolgens de gezichtsuitdrukking aanpassen op het kunstmatig geproduceerde resultaat en die aanpassing weer terug zetten in het originele plaatje. En zo krijg je bijvoorbeeld beelden van een verdrietig kijkende Mona Lisa: haar gezicht met beroemde glimlach is met AI aangepast en teruggeplaatst op het 2D-beeld.

Sleutel zit in de fouten

Dit proces om nepafbeeldingen te creëren, levert echter ook fouten op. Hoewel de manipulatietechnologie dankzij deep learning veel accurater is geworden, blijven er uitdagingen voor de onderliggende software. “Bij face swaps zie je bijvoorbeeld vaak aan de zijkanten van een gezicht dat het bovenop een andere foto is geplakt”, legt Gevers uit. “En de schaduwen geven vaak weg dat een foto niet echt is.”

De software van Gevers wordt op dat soort fouten getraind; om ze te herkennen en zo de deepfakes te ontmaskeren. “We maken daar heel veel deepfakes voor, waar we de AI op trainen. Op basis daarvan leert het wat echt is en wat niet.” Nadeel is wel dat dit voor iedere vorm van deepfakes opnieuw gedaan moet worden. Een AI-systeem dat op face swaps getraind is, kan dus niet ingezet worden voor face syncs. Bij het maken daarvan worden namelijk weer andere fouten gemaakt.

“Bij face syncs zien we vaak dat de micro-expressies niet zichtbaar zijn. Daarnaast zijn de tanden vaak gemaakt met een 3D-programma, waardoor ze er nep uitzien”, vertelt Gevers. “Bij generatieve AI’s zien we met name fouten met het haar. Het is namelijk ontzettend moeilijk om haar na te maken met een computer.”

Bewustwordingsfase

Op dit moment kunnen de AI-modellen van Gevers en 3DUniversum tien verschillende methodes voor het maken van deepfakes herkennen. Daarmee zijn deze ontwikkelaars vooralsnog één van de weinige spelers in dit veld. 3DUniversum heeft dan ook met verschillende partijen contact over detectie van deepfakes, vertelt Gevers.

“We zitten echt nog in de bewustwordingsfase. Er wordt nu door verschillende instanties onderzocht hoe groot de impact van deepfakes kan zijn, en hoe en of dit met wetten en regelgeving aangepakt kan en moet worden. Je moet namelijk uitkijken dat je niet met allerlei verboden in het vaarwater van de vrijheid van meningsuiting gaat zitten”, waarschuwt hij.

In de rechtbank is al een glimps zichtbaar van de impact die deepfakes kunnen hebben. Er zijn bijvoorbeeld al zaken geweest waarbij er met deepfaketechnologie nep-porno is gemaakt. Mensen komen daarmee schijnbaar voor in compromitterend video- of fotomateriaal, waarmee ze vervolgens zijn af te persen. Slachtoffers staan daarbij gelijk op achterstand: “Dan moeten zij zien te bewijzen dat iets nep is.”

Nieuwe vorm van bescherming

De AI-modellen van Gevers zijn al operationeel en kunnen ook al ingezet worden. Voor de consument, die misschien maar een paar video’s of foto’s wil controleren, is het gebruik ervan gratis. Maar er is ook een commercieel product uitgebracht, speciaal voor bedrijven en voor grootschaliger gebruik. 

“Dit is eigenlijk een nieuwe vorm van antivirus”, aldus Gevers. Met deze technologie vallen immers ook beelden voor datingsites, vacaturebanken en paspoorten te vervalsen. "Daar heb je als bedrijf last van.” De ontmaskerende AI-systemen kunnen dus werken als een preventiemethode voor vervalsingen en fraude met deepfakes.

Gevers verwacht dan ook dat deepfakes in de toekomst een groeiend probleem worden. “Het is eigenlijk gewoon een onderdeel van nepnieuws. Nepnieuws verschijnt ook steeds meer en deepfakes dus ook.”

Podcast De Dataloog ism AG Connect

Dit nieuwsartikel is besproken in de podcast De Dataloog ism met AG Connect. Klik hier voor de gehele uitzending van 14 januari 2019 waarin ook over Python 2 en ransomware wordt gesproken.

Lees meer over Innovatie & Strategie OP AG Intelligence
Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.