Innovatie & Strategie

Dit is een bijdrage van SAS
Artificial Intelligence
Bias in AI begint bij de mens

Bias in AI begint bij de mens

Algoritmes en AI (Artificial Intelligence) worden voor steeds meer doeleinden ingezet.

9 september 2022
Door: SAS , partner

Algoritmes en AI (Artificial Intelligence) worden voor steeds meer doeleinden ingezet.

De technologie heeft veel voordelen, maar heeft ook een slechte naam gekregen door de verhalen over discriminerende uitkomsten. De maatschappij ziet de technologie als grote boosdoener, maar is dat wel terecht? Volgens Véronique van Vlasselaer, Analytics & AI Lead South West & East Europe bij SAS, is het niet AI, maar vooral de mens die zorgt voor bias in algoritmes.

De regel van drie

Bias in AI zorgt voor foutieve uitkomsten en kan nare gevolgen hebben. Voor organisaties is het dan ook belangrijk om de bias zoveel mogelijk uit AI te halen om negatieve effecten te verkleinen. Volgens Véronique zijn er drie punten waar bedrijven rekening mee moeten houden: data is niet neutraal, algoritmes zijn niet neutraal en beslissingen die worden genomen op basis van analytics zijn niet neutraal.

Bias in data

Vaak wordt aangenomen dat bias in AI, eigenlijk bias in data betekent. En het klopt dat de vooroordelen van mensen vaak doorsijpelen in de data. Als de data die als input dient voor de AI-algoritmes al bevooroordeeld is, kan hier nooit een onbevooroordeeld resultaat uitkomen. Als inspecteurs bepaalde bevolkingsgroepen bijvoorbeeld vaker controleren, zal er binnen die bevolkingsgroep vaker fraude worden geconstateerd. Als die gebiaste inspectiedata gebruikt wordt om AI-modellen te bouwen, wordt dit meegenomen in alle toekomstige voorspellingen. Data is dus inderdaad niet volledig neutraal.

Algoritmes zijn niet neutraal

Daarnaast is het belangrijk om te beseffen dat algoritmes niet neutraal zijn. Algoritmes worden gebouwd en gebruikt door data scientists. Als deze niet zonder vooroordelen worden ontwikkeld en niet goed worden toegepast, kunnen er discriminerende modellen ontstaan. Algoritmes zoeken altijd naar patronen in data. Wanneer er weinig of eenzijdige data is over bijvoorbeeld een bepaalde bevolkingsgroep, kan het zijn dat het algoritme die data gaat negeren – doordat het data probeert te generaliseren. Het besef dat algoritmes niet neutraal zijn en mensen hier een sleutelrol in spelen is dan ook essentieel.

Interpretatie van de output

Als laatste zijn ook beslissingen niet neutraal. Algoritmes zijn statistische systemen, wat betekent dat de modellen altijd cijfers leveren als resultaat. Helaas zijn mensen over het algemeen slecht in het correct interpreteren van getallen. Voor het interpreteren van de resultaten van algoritmes moet rekening worden gehouden met een scala aan factoren, zoals de context, de data die werd gebruikt als input en de grootte van de dataset. Wanneer dit niet correct wordt gedaan, kan de interpretatie van de output volledig mis zijn.

Bewustwording van bovenstaande drie punten kan bedrijven helpen de kans op discriminerende AI-modellen te minimaliseren. Welke stappen bedrijven hier precies voor moeten nemen en hoe ze betrouwbare en onbevooroordeelde conclusies kunnen halen uit algoritmes en AI, vertelt Véronique tijdens haar presentatie op het AG TechFest op 29 september.

 

 

 

Reactie toevoegen