Overslaan en naar de inhoud gaan

Facebook negeerde eigen waarschuwing voor polariserende algoritmen

Verschillende interne rapporten wijzen het Facebook-management erop dat de algoritmen - verantwoordelijk voor het doen van aanbevelingen - abonnees sterkt in het groepsdenken en polarisatie. Maar in 2018 trekken de auteurs van zo'n rapport de conclusie dat er niets met die kennis gebeurt, omdat veranderingen de conservatieven onevenredig raken en Facebook daardoor mogelijk hun steun verliest.
Thumb down
© CC0 - Unsplash.com
CC0 - Unsplash.com

Een van de meldingen komt uit 2016, waarin interne onderzoekers ontdekken dat 64 procent van de mensen die zich abonneerden op de pagina van een extremistische groep dat deed doordat ze daar via het aanbevelingsalgoritme van Facebook op gewezen waren, schrijft The Wall Street Journal.

In 2018 krijgt het management het nog eens samengevat:  "Onze algoritmen gebruiken de neiging van het menselijk brein zich tot verdeeldheid aangetrokken te voelen", staat er - vrij vertaald - op een van de slides van de presentatie.

Dat Facebook weinig met deze conclusies deed, is voor een belangrijk deel toe te schrijven aan Joel Kaplan - bij Facebook vice president global public policy - oordeelt The Wall Street Journal. Kaplan was ook stafchef van voormalig president George W. Bush en staat bekend om zijn rechtse politieke denkbeelden. Volgens critici heeft Kaplan zich sinds de verkiezingen in 2016 ingespannen om kritiek op Facebook uit conservatieve hoek te sussen en alle beschuldigingen van vooringenomenheid te weerleggen.

Rechtsgeoriënteerde sites onevenredig getroffen

Eerdere besluiten van Facebook om zich niet te bemoeien met politiek getinte reclames die misleidende informatie bevatten, zouden bijvoorbeeld ook voor een belangrijk deel zijn initiatief zijn. Hij zou ook pogingen om de invloed van zogeheten super-sharers - die vaak polariserende boodschappen verspreiden - in te dammen, hebben gesmoord uit vrees dat deze onevenredig veel rechtsgeoriënteerde abonnees zou treffen en daarmee de populariteit van Facebook verminderen.

Volgens een reactie van Facebook aan The Verge is het bedrijf nu niet meer het bedrijf dat het was in 2016. Er is nu een integriteitsteam ingesteld en beleid en acties ontwikkeld om schadelijke content te minimaliseren. In februari werd 2 miljoen dollar vrijgemaakt voor onafhankelijk onderzoek naar polarisatie.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in