Overslaan en naar de inhoud gaan

Zelflerend model NFI herkent doodsbedreigingen in criminele chats

Het Nederlands Forensisch Instituut (NFI) heeft een computermodel ontwikkeld voor rechercheurs die versleutelde berichten meelezen die criminelen aan elkaar sturen. Het computermodel met zelflerende computers herkent welke berichten een serieuze bedreiging kunnen vormen.
crime scene
© CC BY-SA 2.0 -Flickr
CC BY-SA 2.0 -Flickr

"Ik wil bloed zien", of "Doe een kogel in zijn hoofd". Het zijn voorbeelden van berichten die vorig jaar via EncroChat verstuurd werden en waar rechtbanken nu nog wekelijks uit citeren tijdens grote strafprocessen. Voorbeelden zijn de strafzaak over het vermeende Haagse drugsnetwerk van Piet S., alias Dikke Piet, en het proces rond de zogeheten martelcontainer in Wouwse Plantage.

20 miljoen chatberichten

Ongeveer twintig miljoen berichten van tienduizenden gebruikers, waaronder 12.000 Nederlanders, kwamen vorig jaar in handen van de politie. Daarmee zijn ontvoeringen, martelingen en liquidaties mogelijk voorkomen. EncroChat was de vierde beveiligde chatdienst van criminelen die de politie wist te kraken. In maart kwam daar met Sky ECC een vijfde bij.

Het zoeken in de berg berichten is als een speld in een hooiberg. Het team voor Forensische Big Data Analyse (FBDA) van het NFI ontwikkelt modellen om levensbedreigende berichten uit gekraakte chatdiensten te filteren, zo zet het NFI woensdag uiteen op de website. Het model van EncroChat was klaar toen per 1 april vorig jaar de gesprekken op EncroChat bij de politie binnen stroomden.

Slapen, poppen, verdwijnen

Het NFI maakt gebruik van deep learning, een verzameling van technieken waarmee je computers taal kunt leren herkennen, ook het criminele jargon dat criminelen bezigen als ze een mishandeling, ontvoering of moord voorbereiden. Ze gebruiken bijvoorbeeld de woorden slapen, poppen, afknallen en verdwijnen. Europol heeft geholpen om een lijst met vergelijkbare woorden in het Frans en Engels te maken.

De politierechercheurs gaven de gevonden resultaten vervolgens het label ‘bedreigend’ mee of het label ‘niet-bedreigend’ en leerden de computers zo meer over de context van de berichten. Medewerkers van het NFI hebben zo tienduizenden bedreigende en niet-bedreigende zinnen ingevoerd om het model te trainen. Gecheckte resultaten worden weer gelabeld en opnieuw ingeladen, wat de computer steeds slimmer maakt. Het NFI benadrukt geen 100 procent garantie te kunnen geven en dat niet de computers, maar de politie beslist of een bericht zo bedreigend is dat potentiële slachtoffers worden gewaarschuwd.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in