Innovatie & Strategie

Artificial Intelligence
Deepfake

Wat moeten we aan met Deepfakes?

Hoe onderscheid je 'nep' van 'echt'?

© Shutterstuk MDV Edwards
20 januari 2022

Hoe onderscheid je 'nep' van 'echt'?

Een van de zorgelijke ontwikkelingen die kunstmatige intelligentie mogelijk maakt, is de opkomst van deepfakes, ofwel beeldmateriaal dat zodanig is bewerkt dat een andere boodschap uitdraagt dan het origineel zonder dat de verandering met het blote oog te zien is.  In 1993 plaatste The New Yorker al de cartoon met het onderschrift "On the internet nobody knows you're a dog", maar binnenkort kun je er zelfs niet meer vanuit gaan dat als je een hond ziet dat ook daadwerkelijk een hond is. Wat kunnen we doen tegen deepfakes en is dat nodig?

Onderzoekers van de Tilburg University gaan ervan uit dat over 5 jaar meer dan 90% van alle online content op een of andere manier gemanipuleerd zal zijn. Soms gaat het om onschuldige aanpassingen zoals het gebruik van een filter waardoor iemand er beter uitziet op film, of satire waarbij duidelijk is dat er aanpassingen zijn gemaakt. Of het gaat om functionele aanpassingen die efficiënter werken mogelijk maken, bijvoorbeeld een mededeling die in verschillende talen moet worden verspreid zonder de noodzaak zo'n video voor elke taal opnieuw op te nemen.

Het gebruik komt op het hellend vlak wanneer er reclames komen waarin iemand de internetgebruiker aanspreekt met diens eigen voornaam. Maar er zijn veel meer heel kwalijke vormen van deepfakegebruik te bedenken, zoals het in de mond leggen van uitspraken uit wraak, om personen of organisaties in een kwaad daglicht te stellen of het verspreiden van andere vormen van misinformatie. Een bekend voorbeeld,  waarbij mensen ernstig beschadigd kunnen worden, is het online zetten van een video waarbij hun hoofd onzichtbaar is gemonteerd op het lichaam van acteurs in een pornofilm.

Enkele jaren geleden waren gemanipuleerde video's heel makkelijk herkenbaar, maar door de voortgang in beeldherkenning- en beeldmanipulatietechnologie wordt dat steeds lastiger. Uit verschillende wetenschappelijk onderzoeken, waaronder van Niels Köbis en collega's, blijkt dat wanneer mensen originele en gemanipuleerd beeldmateriaal krijgen voorgeschoteld,  ze zelf vaak overtuigd zijn dat ze het onderscheid kunnen maken, maar in feite nauwelijks beter scoren dan een willekeurige keuze.

Niet alles is schadelijk

De technische ontwikkeling van deepfakes is niet te stoppen en dat is ook niet verstandig. "Veel deepfakes zijn niet schadelijk", zegt Hans Henseler, lector Digital Forensics & E-Discovery aan de Hogeschool Leiden en ook werkzaam bij het Nederlands Forensisch Instituut (NFI). "Neem de website Thispersondoesntexist.com. Het zijn deepfakes van gezichten die niet bestaan. Dus eigenlijk zijn het geen fakes, want ze zijn origineel en de kans is heel klein dat er een foto bij zit die sprekend lijkt op een bestaand iemand. Daarom lijkt het me geen optie om zomaar alle bestanden te filteren die met deepfaketechnologie gemaakt zijn."

Hij somt nog een hoop 'goede' toepassingen op van deepfakes: "Scherpe beelden in 4K en 8K TV's, mooiere computergames, verbeteringen aan foto's van smartphones genomen onder slechte lichtomstandigheden, van 2D foto's een 3D reconstructie maken, het omzetten van foto's in avatars, computer gegenereerde kunstwerken en ga zo maar door."

Detecteer misleiding

Het komt er dus op aan mensen erop te wijzen dat beeldmateriaal gemanipuleerd is, zeker als misleiding het doel is. De makers zullen dat niet doen. Automatische detectie moet dan uitkomst bieden. Als enkele jaren wordt gewerkt aan het automatisch herkennen van beeldmanipulatie. De technieken die worden gebruikt voor het maken van deepfakes bieden ook een goed uitgangspunt voor het opsporen van de aanpassingen. Sterker nog, deepfakes worden gemaakt door twee neurale netwerken in competitie met elkaar te laten werken. Henseler: "Er is een generator die fake-beelden maakt en een discriminator die kan detecteren of een beeld fake is. Beide netwerken worden samen getraind. Naar mate het generatornetwerk beter wordt, wordt het discriminatornetwerk ook beter."

Het Delftse startersbedrijf DuckDuckGoose heeft technologie ontwikkeld waarmee deepfakes kunnen worden gemaakt, maar ook ontmaskert met een accuratesse van 92,93%, zo claimt het. De bedrijfsnaam is afgeleid van het Engelse kinderspelletje waarbij de gans tussen de eenden moet worden ontdekt.

(artikel gaat verder onder het kader)

DuckDuckGoose

AG Connect sprak met Parya Lotfi, CEO en medeoprichter van DuckDuckGoose dat sinds juni 2020 DeepDetector op de markt heeft

Hoe lang werkt DuckDuckGoose al aan de deepfake-detectie?
"Sinds iets minder dan twee jaar werken we aan het ontwikkelen van DeepDetector, ons inzichtelijke neuraal netwerk voor het detecteren van deepfake-gezichten in zowel foto’s als video’s. 

Hoe is het bedrijf ontstaan?
"Het idee ontstond in de minor Tech-Based Entrepreneurship aan de TU Delft. We moesten een nieuwe technologie koppelen aan een probleem. Wij kwamen met het idee om AI te koppelen met Deepfake-detectie. Nadat de minor was afgelopen vonden we het idee zo goed dat we het een echte kans wouden geven."

Wat is de doelgroep van het product (of eigenlijk dienst)?
"Op het moment werken we samen met overheidsinstellingen. Zowel in Nederland als in het buitenland maken bijvoorbeeld forensische partijen en veiligheidsdiensten gebruik van onze tool. Deepfakes kunnen echter op meerdere vlakken schade veroorzaken. Denk bijvoorbeeld aan digitale identiteitsverificatie, telecommunicatie en social media. Daarom hebben we meerdere doelgroepen en op dit moment focussen we ons ook op de digitale identiteitsverificatie, denk bijvoorbeeld aan banken die het identificatieproces van nieuwe klanten remote uitvoeren en daarbij de klant vragen om een selfie en een paspoortfoto. Het leuke aan onze tool is dat hij juist breed toepasbaar is en enorm schaalbaar. Dus naast de forensische en de identiteitsverificatiesector gaan we in de toekomst ook andere markten bedienen. "

Hoe zit het businessmodel in elkaar? Is het een betaalde dienstverlening?
"Dat verschilt per sector. Ons product is zowel on-premise als cloudoplossing beschikbaar. Het is een betaalde dienstverlening en afhankelijk van het 'deployment model' kan men een licentie aanschaffen. Naast de commerciële kant hebben we ook als doel om technologie toegankelijk te maken voor iedereen. Daarom werken onder andere samen met een initiatief vanuit de overheid om een meldpunt voor desinformatie op te zetten voor de Nederlandse burgers. Hierbij leveren we een deel van onze detectietool op vrijwillige basis. Wij denken dat een deepfake-detectietool uiteindelijk 'de norm' wordt net zoals antivirussoftware tegenwoordig bij iedereen op de pc e-mails en binnengehaalde bestanden scant op malware."

De acuratesseclaim van DuckDuckGoose is wel bijzonder. Veel meer bedrijven en onderzoeksinstellingen werken wereldwijd aan verbetering van deepfakedetectie. Toch bleek vorig jaar dat  het systeem dat Facebook ontwikkelde samen met de Michigan State University niet hoger kwam dan 70% acuratesse. Het meten van de nauwkeurigheid van zo'n systeem is overigens niet eenvoudig. Zo bleek tijdens een wedstrijd die Facebook in 2019 organiseerde dat sommige van de 2.500 systemen die daar aan meededen toen al tot wel 82% scoorden op een publieke dataset. Maar wanneer de dataset werd verwisseld voor een niet-openbare dataset, doken de prestaties sterk omlaag. De winnaar kwam niet hoger dan 65%. Maar inmiddels zijn er meer systemen die een hoge detectiegraad weten te bereiken, tot wel 97%.

Henseler: "Het probleem is dat deepfakes steeds beter worden en dat het steeds makkelijker zal worden om ze te maken. Het blijft niet bij foto en video. Je kunt nu al met vijf seconden opgenomen spraak een stem nadoen. Dat betekent dat DuckDuckGoose bezig zal blijven met het verbeteren van hun DeepDetector." Henseler zit overigens ook in de raad van advies van DuckDuckGoose.

Wat is de rol van de overheid?

Ondertussen wijzen de onderzoekers van de Tilburg University op de noodzaak te komen tot betere wet- en regelgeving waarmee het gebruik van deepfakes voor kwalijke doeleinden strafbaar kan worden gesteld. Henseler: "Het lijkt me zeker niet wenselijk dat de overheid gaat verbieden om deepfakes te maken. Je zult deepfake-detectie moeten inzetten in bepaalde toepassingen. Bijvoorbeeld in nieuwsuitzendingen, videoconferencing, identiteitscontroles enz. Het gebruik van deepfakes om te misleiden is denk ik al strafbaar. Ik ben geen jurist, maar ik lees dat zo wel in artikel 326 van het Wetboek van Strafrecht. De overheid moet er natuurlijk wel voor zorgen dat er gehandhaafd wordt. Een goede maatregel lijkt me om de integriteit en authenticiteit van nieuws beter te borgen."

Hij suggereert dat er naast het bekende slotje in de browser dat laat zien dat je een veilige verbinding hebt op basis van een ssl-certificaat, ook een 'dit is een betrouwbare nieuwswebsite'-certificaat komen voor nieuwsbronnen op het internet. "Bedrijven en organisaties krijgen dit certificaat als ze kunnen aantonen dat zij hun content hebben gemaakt zonder deepfakemanipulatie of hebben samengesteld uit bronnen die ook zo'n certificaat hebben."

Nog veel te doen

Hoewel de Deepdetector van DuckDuckGoose nu dus goed scoort, is er zeker geen reden voor CEO en medeoprichter Parya Lotfi om met haar team op de handen te gaan zitten. "Veel werk wordt gestoken in het bijhouden van de nieuwe ontwikkelingen en ons netwerk daar op aanpassen. Dit zal waarschijnlijk de komende vijf jaar nog nodig zijn. Maar we doen ook onderzoek naar mogelijkheden om nieuwe deepfakemethodes te detecteren voordat we ze tegenkomen. Het systeem wordt dan als het ware in staat gesteld om te voorspellen wat voor soort nieuwe deepfakes nog mogelijk zijn om te maken." Dat is technisch wel heel ingewikkeld om voor elkaar te krijgen, benadrukt ze. Ook valt er nog veel te winnen op het gebied van uitlegbaarheid hoe het systeem tot de beslissing komt of iets deepfake is of niet.

2
Reacties
Bop 03 februari 2022 19:34

"You're a dog".

Eric-Jan Hoogendijk 21 januari 2022 20:29

Elke uiting van een belang laten beschermen door een ssort DRM die de authenticiteit waarborgt.

Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.