Overslaan en naar de inhoud gaan

Toekomst voorspellen

Met het nieuwe jaar voor de deur worden de goede voornemens en nieuwe plannen uit de kast getrokken. Mijn persoonlijke plan voor het begin van 2019 heeft weinig met technologie te maken; ik verwacht ergens de komende maand een zoon, mijn tweede kind.
iPad op school
© CC0 - Pixabay
CC0 - Pixabay

Ik ben een (aanstaande) moeder die dagelijks nieuwe technologische ontwikkelingen voorbij ziet komen. Dat is handig, want zo ben ik goed op de hoogte van de handige snufjes. Maar het geeft je ook een kijkje in de wereld van morgen. Dat baart me wel eens zorgen.

Ik zie dagelijks voorbeelden van hoe algoritmen voorspellingen doen. Vorige maand schreven we over snelgroeier Keencorp dat aan de hand van communicatiepatronen peilt hoe betrokken medewerkers zijn. Bijstandsfraude wordt voorspeld aan de hand van data. En Facebook bepaalt met een algoritme welk nieuws ik in mijn tijdlijn krijg te zien – nieuws dat ik graag tot me neem, geen informatie die me op andere gedachten zet.

Over mij, mijn man, mijn dochter en mijn ongeboren zoon zijn al allerlei data te vinden; onze nationaliteit, vooropleidingen, banen, de plek waar ons huis staat en hoe wij ons gedragen op social media. Dat zijn openbare data waarmee toekomstig gedrag kan worden voorspeld. Bijvoorbeeld wat de kans is dat mijn zoon later zijn opleiding zal afronden.

Algoritmen zijn wiskundige modellen die veelal door witte mannen van middelbare leeftijd worden gemaakt

Gelukkig leven we (nog) niet in een wereld waarbij de toekomst van mijn ongeboren zoon nu al vast staat; een kinderdagverblijf, school of universiteit maakt geen voorspellingen over het groeipad van kinderen. Maar data als schoolcijfers zijn wel al heel belangrijk bij het bepalen of er überhaupt een plek is bij een bepaalde opleiding.

Algoritmen zijn wiskundige modellen die veelal door witte mannen van middelbare leeftijd worden gemaakt. En daarna is er weinig in transparantie in het rekenmodel of de data die wordt gebruikt.

Ik ben gelukkig niet de enige die zich zorgen maakt over hoe die algoritmen tot stand komen. Bij een aantal leveranciers wordt gesproken over ethische waarden bij de toepassing van AI. Er zijn wetenschappers die hun zorgen uitspreken. Begin oktober zei minister Dekker transparantie van algoritmen na te streven, maar niet altijd. Innovatie is een reden om dat niet te doen.

Laten we elkaar in elk geval beloven dat we nadenken over de bias die in zo’n rekenmodel kan zitten

Natuurlijk is het lastig om altijd openheid te geven. Maar laten we elkaar in elk geval beloven dat we nadenken over de bias die in zo’n rekenmodel kan zitten. Die bias is (deels) te ondervangen door een model door een diverse groep mensen te laten ontwikkelen en door goed te toetsen of er geen gekleurde gegevens in de data zitten.

Het lijkt me hét onderwerp voor 2019. Omdat het zo belangrijk is voor de jaren erna.

Magazine AG Connect

Dit artikel is ook gepubliceerd in het magazine van AG Connect (nummer 12, 2018). Wil je alle artikelen uit dit nummer lezen, klik dan hier voor de inhoudsopgave

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in