Overslaan en naar de inhoud gaan

AI en werving: hoe met bias om te gaan?

De laatste tijd wordt steeds meer gesproken over het gebruik van Artificiële Intelligentie (AI) om het selectieproces van kandidaten voor vacatures te stroomlijnen. Met als belangrijk bijkomend voordeel dat het proces objectiever wordt. Maar is dat wel zo? Interpretable Machine Learning kan helpen om inzichtelijk te maken waarom een systeem een kandidaat aanwijst als de beste, en anderen niet.

Regelmatig verschijnen er berichten dat mensen met een buitenlandse naam of een hogere leeftijd minder kansen op de arbeidsmarkt hebben. Dit is niet altijd expliciete discriminatie. Er is ook onbewuste discriminatie, waarbij de personeelsfunctionaris zijn of haar persoonlijke vooroordelen meeneemt in de afwegingen.

Kunnen we artificiële intelligentie gebruiken om objectiever selectiesysteem bouwen? Een systeem dat vooroordelen vermijdt en kandidaten een eerlijke kans geeft?

Zo kunnen we namen, geslacht of afkomst verwijderen uit de persoonsbeschrijvingen. Het systeem kent die gegevens niet en kan die dus ook niet gebruiken voor zijn selecties. Op die manier omzeilen we de vooroordelen van de menselijke personeelsfunctionaris en komen we tot een objectiever oordeel.

Maar de AI-algoritmes zijn meestal zo slim, dat ze toch patronen kunnen onderkennen die impliciet in de data aanwezig zijn. Wanneer we de leeftijd van de kandidaat niet vermelden kan het systeem toch op leeftijd gaan selecteren. Het simpele feit dat een CV langer is, of omdat opleidingen in een verder verleden hebben plaatsgevonden, is voor een zelflerend systeem al voldoende om de leeftijd af te leiden. Deze indirecte indicatoren zijn niet uit de data te halen. Ze bevatten informatie die juist essentieel is voor het selectieproces.

AI helpt niet en wel…

Op een of andere manier lukt het niet om computer­systemen, die gedrag van mensen voorspellen, zonder vooroordelen te laten werken. AI kan wel helpen de persoonlijke voorkeuren van individuele personeelsfunctionarissen te omzeilen. Het systeem beslist op basis van zijn eigen regels en dat is het dan. Maar het systeem heeft wel geleerd op basis van historische data. Data die vooroordelen bevat, die (onbewust) in het verleden bij een organisatie zijn gebruikt. En deze vooroordelen klinken door in de beslissingen van het AI-systeem.

Maar er is hoop: Interpretable Machine Learning. Leveranciers ontwikkelen methoden en tools om na te gaan in hoeverre de machinebeslissingen bepaald zijn door vooroordelen. Dit kan door data-analyses te doen om te kijken in hoeverre factoren zoals geslacht, afkomst of leeftijd zijn meegewogen. En er wordt nu gewerkt aan systemen die de redenering van de computer inzichtelijk maken. Ze geven aan welke factoren de beslissing positief of negatief hebben beïnvloed.

Ik zou van de leverancier verlangen dat hij in zijn software inzichtelijk maakt waarom een bepaalde kandidaat is gekozen (en waarom anderen zijn afgevallen.) Dat stelt je niet alleen in staat na te gaan of de beslissing is genomen naar je eigen standaarden, maar het helpt ook de afgewezen kandidaten met een eerlijk en transparant verhaal zonder dooddoeners.

Voor wie meer wil weten over Interpretable Machine Learning raad ik het (gratis) Engelstalige boek van Christoph Molnar aan.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in