Development

Artificial Intelligence
Facebook-logo

Facebook schakelt racistisch AI-advies uit

Excuses voor racistisch labelen in video-aanbevelingen.

6 september 2021

Excuses voor racistisch labelen in video-aanbevelingen.

Facebook heeft zijn aanbevelingssysteem voor video's uitgeschakeld nadat is gebleken dat die functie een video met een gekleurde man voorziet van het label 'primaten'. 's Werelds grootste social network noemt dit een "onacceptabele fout" en onderzoekt de werking van zijn AI.

De racistische labeling van Facebooks video-aanbevelingen is recent aan het licht gekomen bij een video van juni dit jaar, meldt onder meer The New York Times. In de opname komen gekleurde mannen voor die in conflict zijn met blanke mensen en politieagenten. Apen of primaten zijn niet in beeld, komen niet aan bod, en zijn ook niet gerelateerd aan de inhoud van de video, die afkomstig is van de Britse tabloid The Daily Mail.

Jaren oud probleem

Facebook-gebruikers die de video bekeken, kregen van het social network de vraag of ze 'video's over primaten' wilden blijven zien. In reactie heeft het bedrijf van Mark Zuckerberg de aanbevelingsfunctie geheel uitgeschakeld. Het stelt nu een onderzoek in naar de oorzaak van deze "onacceptabele fout".

Een link tussen huidskleur en primaten is al eerder ten onrechte gelegd door AI-software, in bijvoorbeeld fotomateriaal. Zo heeft Google met zijn online fotodienst Photos in 2015 het label 'gorilla's' geplakt op beeld met gekleurde mensen. Concurrent Flickr bleek ook zoiets te doen. Ook AI-inzet voor gezichtsherkenning gaat vaak de fout in bij gekleurde mensen. Daarbij komen fouten en persoonsverwisselingen vaker voor dan bij blanke gezichten.

Datasets

Een oorzaak voor zulke bias in kunstmatige intelligentie kan de gebruikte dataset zijn, waarbij ontwikkelaars en AI-ingenieurs niet goed letten op diversiteit van hun bronbestanden en de beoogde inzet van systemen die ze ontwikkelen. Facebook heeft de grootste collectie van gebruikersbeeld ter wereld en kan daar zijn algoritmes op trainen. Het is niet duidelijk hoe nu de racistische labeling tot stand is gekomen. "We hebben nog veel vooruitgang te boeken", verklaart een woordvoerder tegenover The Verge.

Lees meer over Development OP AG Intelligence
Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.