Development

Artificial Intelligence
crash Uber

Machinelearning-algoritmen gaan op drie manieren de fout in

Meer begrip nodig van het effect van 'artefacten'.

NTSB-medewerkers onderzoeker crash met zelfsturende Uber © NTSB
24 november 2020

Meer begrip nodig van het effect van 'artefacten'.

Algoritmen die de uitkomst zijn van deeplearning-technieken, gaan af en toe de fout in. Zo'n fout kan onschuldige gevolgen hebben: een plaatje van een kat wordt voor een hond aangezien. Maar naar mate de toepassing van die algoritmen dieper in het dagelijks leven doordringt, kan zo'n misser ook levensbedreigend zijn, bijvoorbeeld wanneer een zelfrijdende auto een stopbord negeert. Er is meer begrip nodig van de manier waarop die missers ontstaan.

Tot nog toe wordt er veelal vanuit gegaan dat wanneer een machinelearning-algoritme de fout in gaat bij de interpretatie van data die nog niet eerder werden aangeboden, er twee oorzaken zijn: ofwel er zitten fouten in de trainingsdata, ofwel er is gemanipuleerd met de aangeboden data. In dat laatste geval hebben kwaadwillenden bijvoorbeeld met stukjes tape een verkeersbord een andere betekenis gegeven.

Cameron Buckner, associate professor filosofie aan de Universiteit van Houston, wijst er in een artikel in Nature Machine Intelligence op dat een derde variant vaak over het hoofd wordt gezien. Het algoritme kan ook de fout in gaan door een artefact. Hij legt het uit aan de hand van een voorbeeld uit de camera-optiek: de zon die op een cameralens valt zorgt voor een foto waarop patronen te zien zijn die in werkelijkheid niet in beeld waren. Die patronen zijn niet het gevolg van een fout in het lenzenstelsel en ook niet moedwillig aangebracht in de gefotografeerde omgeving.

Op dezelfde manier kunnen ook algoritmen een foute beslissing maken, terwijl de trainingsdata betrouwbaar waren en er niet is gemanipuleerd met de patronen waarop het algoritme een besluit moet nemen. Het probleem is dat over het voorkomen van deze artefacten nog onvoldoende bekend is. Toch is dit begrip noodzakelijk om een oordeel te kunnen vellen over hoe betrouwbaar zo'n algoritme is.

Zo'n artefact kan zelfs extra informatie bieden. In het geval van het zonlicht in de cameralens geeft de strepen aan waar de zon stond, op het moment dat de foto genomen werd. Onderzoek naar artefacten bij deeplearning-algoritmen kunnen zo wellicht ook extra inzicht opleveren.

Lees meer over Development OP AG Intelligence
Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.