Overslaan en naar de inhoud gaan

'Bias in AI is nog niet zo slecht'

Bias in kunstmatige intelligentie is niet altijd slecht en moet in sommige gevallen zelfs worden gestimuleerd. Het gaat dan wel om 'goede' bias die weloverwogen wordt ingezet.
bias
© Shutterstock
Shutterstock

In de discussie rond vooroordelen (bias) in kunstmatige intelligentie (AI) is er doorgaans wel overeenstemming over het streven naar het compleet uitroeien van bias als heilige graal. Maar bias is een verraderlijke term, schrijft Venturebeat. Er zijn verschillende vormen van bias die vaak op één hoop worden gegooid. Bovendien komt bias voor in twee verschillende aspecten van kunstmatige intelligentie, namelijk in de trainingsdata en in de algoritmen.

In veel gevallen is zonder meer duidelijk dat bias in trainingsdata leidt tot verkeerde uitkomsten. Wanneer een AI-systeem voor het herkennen van huidkanker wordt getraind op een dataset waarin voornamelijk beeldmateriaal van witte mannen zit, kun je er vanuit gaan dat het de fout in gaat bij beelden van mensen met een gekleurde huid en bij vrouwen. Door de trainingsset uit te breiden is zo'n bias op te heffen.

Juist bias toevoegen

Maar neem het geval van een systeem dat een voorselectie maakt voor toelating tot een opleiding. Wanneer dat uitsluitend op één zuiver criterium let - bijvoorbeeld de schoolprestaties uit het verleden - is de kans groot dat bij voorkeur kandidaten uit een welgestelde en kansrijke omgeving worden toegelaten. De kandidaten uit een arme en kansarme omgeving vallen dan buiten de boot; door het gehanteerde zuivere criterium.

Door meer factoren toe te voegen - en daarmee dus een bias creëeren richting factoren anders dan de academische prestaties - wordt tegemoet gekomen aan de verdeling die in de werkelijke wereld bestaat. In dit geval is het dus juist goed bias toe te voegen - maar wel de goede bias - in plaats van deze weg te werken, stelt Venturebeat.

De publicatie haalt verder een artikel uit Harvard Magazine aan dat aandacht besteed aan de film rond datajournalist en software developer Meredith Broussard. Zij schreef drie jaar gelden het boek 'Artificial Unintelligence: How Computers Misunderstand the World' waarin zij duidelijk het verschil neerzet tussen 'mathematische eerlijkheid' en 'sociale eerlijkheid'. De technologie die tot op heden vooral is ontwikkeld door witte mannen, is intrinsiek niet de meest geschikte manier om sociale eerlijkheid te bereiken. Door te streven naar 'unbiased' technologie, gaan we voorbij aan dat feit. Het zou dus beter zijn te streven naar zorgvuldige bias die in staat is de balans in de maatschappij en de technologie te herstellen.

Bewust gekleurde trainingsdata

Bovendien kan bias in trainingsdata ook goed zijn. Wanneer er een besluit genomen moet worden over bijvoorbeeld het koopgedrag in een bepaald marktsegment is het niet handig data te gebruiken met veel informatie uit andere marktsegmenten. In dat geval wordt er gestreefd naar een bias om zo accuraat mogelijke resultaten te kunnen boeken. Maar het moet wel duidelijk zijn dat de uitkomsten van toepassing zijn op alleen het onderzochte marktsegment en niets zeggen over andere omstandigheden.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in