Innovatie & Strategie

Wetenschap
banned

Makers 'deepfakes' getackeld door AI van UvA

De Amerikaanse defensie-organisatie DARPA steunt onderzoek naar ontdekking gemanipuleerde video's

© CC0 - pixabay TheDigitalArtist
2 mei 2018

De Amerikaanse defensie-organisatie DARPA steunt onderzoek naar ontdekking gemanipuleerde video's

Het Californische bedrijf SRI International heeft een grote opdracht gekregen van Defense Advanced Research Projects Agency (DARPA), meldt TechCrunch. SRI International werkt nauw samen met onder meer de Universiteit van Amsterdam (UvA).

Het doel van DARPA is technieken te ontwikkelen voor het geautomatiseerd herkennen van beeldmateriaal waar aan gesleuteld is. De methoden om foto's en video's zodanig te bewerken dat ze iets tonen dat nooit is gebeurd, worden steeds geavanceerder. Dat leidt onder meer tot 'deepfakes', doorgaans pornografische video's waarbij de hoofden van bekende personen zijn gemonteerd op de acteurs.

Met de geavanceerde videobewerkingstechnieken is het voor het menselijk oog vaak ondoenlijk te onderscheiden of het gaat om nepnieuws of een waargebeurd evenement. Dat levert in het geval van de gemanipuleerde porno problemen voor de persoonlijke levenssfeer van de mensen die schijnbaar in de scenes optreden. Maar de geavanceerde manipulatie maakt ook geavanceerd nepnieuws mogelijk  waarmee de publieke opinie er mee kan worden bespeeld. Ook kan de rechtstaat in gevaar komen wanneer nepbeelden als bewijs in een proces terecht komen.

UvA speelt belangrijke rol

DARPA richtte in 2016 een aparte afdeling op genaamd Media Forensics (MediFor) die dit probleem aanpakt. De groep schakelt daarbij externen in om gebruik te kunnen maken van de laatste ontwikkelingen in fundamenteel onderzoek. Gisteren meldde TechCrunch dat MediFor drie contracten heeft gegund aan de non-profit onderzoeksgroep SRI International. Voor de opdrachten van DARPA werkt deze groep nauw samen met de Deep Learning Computer Vision groep van de Universiteit van Amsterdam. Samen brachten zij onlangs al een wetenschappelijk artikel uit genaamd 'Spotting Audio-Visual Inconsistencies (SAVI) in Manipulated Video'. Ook het Idiap Research Institute in het Zwitserse Martigny werkt mee aan het projecten.

Het onderzoek richt zich bijvoorbeeld op afwijkingen in lipsynchronisatie en onregelmatigheden in de samenhang van beelden en geluiden, zoals een akoestiek die niet bij de omvang van de ruimte past. De automatische detectie speurt ook naar verwijderde of juist ingevoegde fragmenten.

De groepen boeken inmiddels veelbelovende resultaten. Zo werd in een test afgelopen jaar al een 75 procent acuratesse bereikt bij het detecteren van inconsistenties in scenes en bij sprekers.

Lees meer over Innovatie & Strategie OP AG Intelligence
Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.