Development

Software-ontwikkeling
Facebook

Facebook maakt algoritmen tegen schadelijke content open source

Het doel is om haatzaaiende berichten sneller offline te halen.

2 augustus 2019

Het doel is om haatzaaiende berichten sneller offline te halen.

Facebook heeft twee algoritmen open source gemaakt die schadelijke berichten over kindermisbruik, terroristische propaganda en gewelddadige beelden herkennen. Het techbedrijf hoopt dat andere organisaties de technologie gaan gebruiken en content gaan delen. Zo moeten haatzaaiende posts sneller van het internet verdwijnen. 

De algoritmen zijn bekend onder de namen PDQ en TMK+PDQF en staan nu op Github, schrijft Facebook in een blogpost. De aankondiging valt samen met Facebooks jaarlijkse hackathon om de (online) veiligheid van kinderen te verbeteren.

PDQ en TMK+PDQF gebruiken enorme databases met oudere schadelijke berichten van Facebook. Nieuwe posts worden als digitale hashes met de databases vergeleken. Bevat een bericht één of meerdere gemarkeerde woorden, afbeeldingen of video's dan wordt er actie ondernomen. 

Algoritmen voor iedereen beschikbaar

Door de zelfontwikkelde technologieën open source te maken, hoopt Facebook dat anderen ze overnemen. Niet alleen andere techbedrijven, maar ook non-profit-organisaties en (privé)ontwikkelaars mogen de algoritmen gebruiken om hun websites en fora veiliger te maken. Microsoft en Google hebben vergelijkbare algoritmen al eerder open source gemaakt. Voor Facebook is dit de eerste keer, zegt het bedrijf.

Veel grotere (social media)sites hebben echter al één of meerdere technieken om haatzaaiende berichten tegen te gaan. De algoritmen van Facebook zijn hier naar eigen zeggen geen vervanging voor, maar juist een aanvulling. In de blogpost spreekt het techbedrijf van een 'extra beschermingslaag'. Facebooks algoritmen kunnen ook content uitwisselen met andere veiligheidssystemen die hashes gebruiken en dat moet de technieken verbeteren. 

Toename schadelijke content op internet

Het aantal haatzaaiende berichten, foto's en video's op het internet groeit, stelt Facebook. Het social mediabedrijf moet zijn algoritmen blijven verbeteren om schadelijke content tijdig te herkennen en te verwijderen. Volgens een Amerikaanse organisatie die zich bezighoudt met kindmisbruik, hebben techbedrijven vorig jaar 514 procent meer kindermisbruikvideo's gemeld bij een speciale tiplijn. 

Omdat de algoritmen van Facebook nog niet goed genoeg zijn om alle schadelijke posts voor of direct na publicatie te herkennen, kunnen gebruikers zelf ook berichten rapporteren. Het bedrijf heeft wereldwijd ongeveer 15 duizend moderators in dienst die continue gerapporteerde posts beoordelen en indien nodig verwijderen. 

Lees meer over
Lees meer over Development OP AG Intelligence
Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.