Overslaan en naar de inhoud gaan

Lessen van: Amazons seksistische recruitment-AI

Over AI leven veel misverstanden en ook zorgen, die deels terecht zijn. Bijvoorbeeld over ethiek en vooroordelen. Laatstgenoemde kunnen komen vanuit de mens, die als developer immers de algoritmes ontwikkelt waarmee AI’s opereren. Maar vooroordelen kunnen ook komen vanuit de data, waarmee AI’s leren. Zoals Amazons seksistische recruitment-AI, die stilletjes weer is geschrapt.
Een pakketje van Amazon op de stoep
© Shutterstock
Shutterstock

Vooroordelen zijn in AI-context ook wel bekend als bias (in ICT-voertaal Engels) en vormen een flink probleem. Net zoals bij vooroordelen in menselijke context zijn ze vaak ongezien – of worden ze zelfs ontkend – door de ‘oordelende’ partij. Een vooroordeel is dan de norm, en andersdenkenden worden als klagers of zeurders gezien.

Lees dit PRO artikel gratis

Maak een gratis account aan en geniet van alle voordelen:

  • Toegang tot 3 PRO artikelen per maand
  • Inclusief CTO interviews, podcasts, digitale specials en whitepapers
  • Blijf up-to-date over de laatste ontwikkelingen in en rond tech

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in