Management

Artificial Intelligence
Thumb down

Facebook negeerde eigen waarschuwing voor polariserende algoritmen

Facebook wakkert maatschappelijke verdeeldheid aan.

© CC0 - Unsplash.com Markus Spiske
27 mei 2020

Facebook wakkert maatschappelijke verdeeldheid aan.

Verschillende interne rapporten wijzen het Facebook-management erop dat de algoritmen - verantwoordelijk voor het doen van aanbevelingen - abonnees sterkt in het groepsdenken en polarisatie. Maar in 2018 trekken de auteurs van zo'n rapport de conclusie dat er niets met die kennis gebeurt, omdat veranderingen de conservatieven onevenredig raken en Facebook daardoor mogelijk hun steun verliest.

Een van de meldingen komt uit 2016, waarin interne onderzoekers ontdekken dat 64 procent van de mensen die zich abonneerden op de pagina van een extremistische groep dat deed doordat ze daar via het aanbevelingsalgoritme van Facebook op gewezen waren, schrijft The Wall Street Journal.

In 2018 krijgt het management het nog eens samengevat:  "Onze algoritmen gebruiken de neiging van het menselijk brein zich tot verdeeldheid aangetrokken te voelen", staat er - vrij vertaald - op een van de slides van de presentatie.

Dat Facebook weinig met deze conclusies deed, is voor een belangrijk deel toe te schrijven aan Joel Kaplan - bij Facebook vice president global public policy - oordeelt The Wall Street Journal. Kaplan was ook stafchef van voormalig president George W. Bush en staat bekend om zijn rechtse politieke denkbeelden. Volgens critici heeft Kaplan zich sinds de verkiezingen in 2016 ingespannen om kritiek op Facebook uit conservatieve hoek te sussen en alle beschuldigingen van vooringenomenheid te weerleggen.

Rechtsgeoriënteerde sites onevenredig getroffen

Eerdere besluiten van Facebook om zich niet te bemoeien met politiek getinte reclames die misleidende informatie bevatten, zouden bijvoorbeeld ook voor een belangrijk deel zijn initiatief zijn. Hij zou ook pogingen om de invloed van zogeheten super-sharers - die vaak polariserende boodschappen verspreiden - in te dammen, hebben gesmoord uit vrees dat deze onevenredig veel rechtsgeoriënteerde abonnees zou treffen en daarmee de populariteit van Facebook verminderen.

Volgens een reactie van Facebook aan The Verge is het bedrijf nu niet meer het bedrijf dat het was in 2016. Er is nu een integriteitsteam ingesteld en beleid en acties ontwikkeld om schadelijke content te minimaliseren. In februari werd 2 miljoen dollar vrijgemaakt voor onafhankelijk onderzoek naar polarisatie.

Lees meer over
Lees meer over Management OP AG Intelligence
Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.