Innovatie & Strategie

Governance
polariteit

Haal eerst de bias uit de mens

Zolang mensen discrimineren, zullen AI-systemen dat ook blijven doen

© CC0 - Pixabay johnhain
24 juni 2019

In het april-nummer van ag connect beschrijft Jasper Bakker hoe een systeem voor recruitement van nieuwe personeelsleden seksistisch werd. Het was juist de bedoeling van Amazon om gender-bias te voorkomen. Maar door het gebruik van historische data werd het historisch gegroeide seksisme van Amazon netjes hergebruikt in het nieuwe systeem. Het systeem faalde in zijn doelstelling en werd buiten gebruik gesteld.

Het voorkomen van bias is op dit moment een van de belangrijkste topics van Artificiële Intelligentie (AI). Bias leidt ertoe dat AI-systemen gaan discrimineren. Huidskleur, afkomst en gender kunnen gebruikt worden om mensen te beoordelen en te classificeren. Deze bias zit opgesloten in de data die aan de systemen wordt aangeboden om ervan te leren. Het AI-algoritme is in het algemeen waardenvrij. Maar de data waarmee het systeem gaat leren is dat niet.
Telkens blijkt weer dat AI heel goed is in het ‘ontdekken’ van bias. AI-systemen nemen de bias over van organisaties waar ze gebruikt worden. De AI-algoritmes hebben zelf geen kennis om bias te ontdekken en te vermijden.

Joy Buolamwini van het MIT ontdekte dat gezichtsherkenningssoftware, die door de grote technologiebedrijven wordt aangeboden, discrimineerde naar geslacht en huidskleur. Het was helemaal niet de bedoeling van die bedrijven om te discrimineren. Maar de dataset bevatte te weinig voorbeelden van vrouwen en personen met een donkere huidskleur, laat staan vrouwen met een donkere huidskleur. De samenstellers van de dataset waren zich niet bewust dat ze deze vorm van bias hadden en in de dataset hadden ingebracht.

Datasets samenstellen is mensenwerk

Op ieder moment in een AI-traject kan bias binnensluipen. Wat vooral gebeurt, is dat bij het samenstellen van de datasets waarmee de AI leert, iets verkeerd gaat. Het samenstellen van deze datasets is mensenwerk. Bij de selectie van de data worden oordelen en vooroordelen meegenomen. Het vervelende is, dat deze mensen ondanks hun goede bedoelingen toch biased zijn. Zonder dat mensen zich ervan bewust zijn.

Enkele weken geleden kondigde de TU Eindhoven aan om alleen nog maar vrouwen aan te nemen. De rector magnificus ziet dat discriminatie van vrouwen diep in zijn organisatie geworteld zit. De TU/e ziet deze radicale maatregel als enige oplossing om het probleem van gender-bias, lees: impliciete discriminatie, aan te pakken.
Discriminatie op geslacht, huidskleur, afkomst, leeftijd enz. zit in onze samenleving. Procedures, richtlijnen en systemen schieten tekort om dat probleem op te lossen. Het helpt wel een beetje, maar te weinig. Dat komt omdat al die procedures, richtlijnen en systemen door mensen worden uitgevoerd. Technologie kan helpen om bias weg te werken, maar zal zelf ook weer bias bevatten.

Zolang mensen discrimineren, zullen AI-systemen dat ook blijven doen.

De pogingen om Artificiële Intelligentie geen vooroordelen te laten hebben staat of valt bij de strijd tegen discriminatie die aanwezig is bij mensen. Zolang mensen discrimineren, zullen AI-systemen dat ook blijven doen. Het maken, leren en controleren van AI-systemen is en blijft voorlopig gewoon mensenwerk.
Ik heb op veel IT-projecten gewerkt waarbij het nieuwe systeem nieuwe werkwijzen oplegde en zo de organisatie moest veranderen. Dat was niet altijd erg succesvol. Wie een AI-systeem gaat gebruiken om de denkwijzen van zijn medewerkers aan te passen en zo een cultuurverandering te bewerkstelligen, zal niet slagen.

 

Reactie toevoegen