werven

AI en werving: hoe met bias om te gaan?

Interpretable Machine Learning kan meer transparantie bieden

21 november 2019

De laatste tijd wordt steeds meer gesproken over het gebruik van Artificiële Intelligentie (AI) om het selectieproces van kandidaten voor vacatures te stroomlijnen. Met als belangrijk bijkomend voordeel dat het proces objectiever wordt. Maar is dat wel zo? Interpretable Machine Learning kan helpen om inzichtelijk te maken waarom een systeem een kandidaat aanwijst als de beste, en anderen niet.

Regelmatig verschijnen er berichten dat mensen met een buitenlandse naam of een hogere leeftijd minder kansen op de arbeidsmarkt hebben. Dit is niet altijd expliciete discriminatie. Er is ook onbewuste discriminatie, waarbij de personeelsfunctionaris zijn of haar persoonlijke vooroordelen meeneemt in de afwegingen.

Kunnen we artificiële intelligentie gebruiken om objectiever selectiesysteem bouwen? Een systeem dat vooroordelen vermijdt en kandidaten een eerlijke kans geeft?

Zo kunnen we namen, geslacht of afkomst verwijderen uit de persoonsbeschrijvingen. Het systeem kent die gegevens niet en kan die dus ook niet gebruiken voor zijn selecties. Op die manier omzeilen we de vooroordelen van de menselijke personeelsfunctionaris en komen we tot een objectiever oordeel.

Maar de AI-algoritmes zijn meestal zo slim, dat ze toch patronen kunnen onderkennen die impliciet in de data aanwezig zijn. Wanneer we de leeftijd van de kandidaat niet vermelden kan het systeem toch op leeftijd gaan selecteren. Het simpele feit dat een CV langer is, of omdat opleidingen in een verder verleden hebben plaatsgevonden, is voor een zelflerend systeem al voldoende om de leeftijd af te leiden. Deze indirecte indicatoren zijn niet uit de data te halen. Ze bevatten informatie die juist essentieel is voor het selectieproces.

AI helpt niet en wel…

Op een of andere manier lukt het niet om computer­systemen, die gedrag van mensen voorspellen, zonder vooroordelen te laten werken. AI kan wel helpen de persoonlijke voorkeuren van individuele personeelsfunctionarissen te omzeilen. Het systeem beslist op basis van zijn eigen regels en dat is het dan. Maar het systeem heeft wel geleerd op basis van historische data. Data die vooroordelen bevat, die (onbewust) in het verleden bij een organisatie zijn gebruikt. En deze vooroordelen klinken door in de beslissingen van het AI-systeem.

Maar er is hoop: Interpretable Machine Learning. Leveranciers ontwikkelen methoden en tools om na te gaan in hoeverre de machinebeslissingen bepaald zijn door vooroordelen. Dit kan door data-analyses te doen om te kijken in hoeverre factoren zoals geslacht, afkomst of leeftijd zijn meegewogen. En er wordt nu gewerkt aan systemen die de redenering van de computer inzichtelijk maken. Ze geven aan welke factoren de beslissing positief of negatief hebben beïnvloed.

Ik zou van de leverancier verlangen dat hij in zijn software inzichtelijk maakt waarom een bepaalde kandidaat is gekozen (en waarom anderen zijn afgevallen.) Dat stelt je niet alleen in staat na te gaan of de beslissing is genomen naar je eigen standaarden, maar het helpt ook de afgewezen kandidaten met een eerlijk en transparant verhaal zonder dooddoeners.

Voor wie meer wil weten over Interpretable Machine Learning raad ik het (gratis) Engelstalige boek van Christoph Molnar aan.

Reactie toevoegen
2
Reacties
Reinoud Kaasschieter 04 december 2019 10:56

Beste Hans, je hebt volkomen gelijk. De bias die jij noemt heet "societal bias". Dat is de vorm van bias die ook de meeste publiciteit trekt. Daarom zeggen sommige auteurs ook dat om van bias af te komen, je nieuwe bias moet introduceren. [https://techhq.com/2019/11/why-fair-artificial-intelligence-might-need-…] Dit is dus meer een business vraagstuk dan een wetenschappelijke. Wil je als organisatie bekend staan om AI-gebaseerde beslissingen, hoe (wetenschappelijk) terecht ook, die niet overeenkomen met wat maatschappelijk aanvaardbaar is? Voor welke waardes sta je als bedrijf? Maar dan komen we op de waardenethiek die binnen het AI-domein een belangrijke rol speelt.

Hans Bezemer 22 november 2019 12:14

Ten eerste, dank voor het aanhalen van mijn column. Dat waardeer ik zeer, dank daarvoor. Ik heb echter nog een andere column geschreven, die juist op dit onderwerp ingaat. Ik ben namelijk niet overtuigd van een bias in het programma. Zonder diepgaand graven zou deze vermeende bias namelijk best gebaseerd kunnen zijn op de politieke achtergrond van de gebruikers, die menen dat "equal opportunity" zich moet vertalen in "equal outcome" waar het om bepaalde groepen gaat. Er is geen enkel wetenschappelijk bewijs voor dat dit zo is. Het is daarom ook niet ondenkbaar, dat een computer patronen ziet, waar mensen die als gevolg van hun eigen politieke bias niet zien. Derhalve zou het interessant zijn om na te gaan op welke patronen computers hun beslissing baseren. Of dat mogelijk is met hoog complexe systemen is een ander punt, uiteraard. En het valt nog maar te bezien of mensen die een politieke bias hebben, die uitkomsten ook zouden accepteren. Het is immers niet voor niets dat er geen wetenschappelijke overeenstemming op dit punt bestaat.