Overslaan en naar de inhoud gaan

Facebook maakt algoritmen tegen schadelijke content open source

Facebook heeft twee algoritmen open source gemaakt die schadelijke berichten over kindermisbruik, terroristische propaganda en gewelddadige beelden herkennen. Het techbedrijf hoopt dat andere organisaties de technologie gaan gebruiken en content gaan delen. Zo moeten haatzaaiende posts sneller van het internet verdwijnen.
facebook

De algoritmen zijn bekend onder de namen PDQ en TMK+PDQF en staan nu op Github, schrijft Facebook in een blogpost. De aankondiging valt samen met Facebooks jaarlijkse hackathon om de (online) veiligheid van kinderen te verbeteren.

PDQ en TMK+PDQF gebruiken enorme databases met oudere schadelijke berichten van Facebook. Nieuwe posts worden als digitale hashes met de databases vergeleken. Bevat een bericht één of meerdere gemarkeerde woorden, afbeeldingen of video's dan wordt er actie ondernomen. 

Algoritmen voor iedereen beschikbaar

Door de zelfontwikkelde technologieën open source te maken, hoopt Facebook dat anderen ze overnemen. Niet alleen andere techbedrijven, maar ook non-profit-organisaties en (privé)ontwikkelaars mogen de algoritmen gebruiken om hun websites en fora veiliger te maken. Microsoft en Google hebben vergelijkbare algoritmen al eerder open source gemaakt. Voor Facebook is dit de eerste keer, zegt het bedrijf.

Veel grotere (social media)sites hebben echter al één of meerdere technieken om haatzaaiende berichten tegen te gaan. De algoritmen van Facebook zijn hier naar eigen zeggen geen vervanging voor, maar juist een aanvulling. In de blogpost spreekt het techbedrijf van een 'extra beschermingslaag'. Facebooks algoritmen kunnen ook content uitwisselen met andere veiligheidssystemen die hashes gebruiken en dat moet de technieken verbeteren. 

Toename schadelijke content op internet

Het aantal haatzaaiende berichten, foto's en video's op het internet groeit, stelt Facebook. Het social mediabedrijf moet zijn algoritmen blijven verbeteren om schadelijke content tijdig te herkennen en te verwijderen. Volgens een Amerikaanse organisatie die zich bezighoudt met kindmisbruik, hebben techbedrijven vorig jaar 514 procent meer kindermisbruikvideo's gemeld bij een speciale tiplijn. 

Omdat de algoritmen van Facebook nog niet goed genoeg zijn om alle schadelijke posts voor of direct na publicatie te herkennen, kunnen gebruikers zelf ook berichten rapporteren. Het bedrijf heeft wereldwijd ongeveer 15 duizend moderators in dienst die continue gerapporteerde posts beoordelen en indien nodig verwijderen. 

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in