Innovatie & Strategie

Artificial Intelligence
crash

AI-systemen trainen op big data alleen geeft problemen

Moreel acceptabel gedrag aanleren lukt niet zonder kritische blik van de mens.

NTSB-medewerkers onderzoeker crash met zelfsturende Uber © NTSB
3 september 2021

Het hele concept van de inzet van machine learning bij autonome systemen krijgt nu te maken met een stresstest. De Amerikaanse dienst voor verkeersveiligheid gooit de knuppel in het hoenderhok met kritische vragen aan Tesla over het functioneren van de Autopilot onder gevaarlijke omstandigheden. Maar het gaat om meer dan dat, vindt AI-safetyexpert Leon Kester.

De Autopilot van Tesla gaat op de pijnbank. De National Highway Traffic Safety Administration (NHTSA) wil opheldering over hoe het systeem reageert op auto's van hulpdiensten met zwaailichten en sterk reflecterende strepen. De aanleiding is een serie ongelukken met dodelijke afloop. Maar kan Tesla dat inzicht wel verschaffen? En als dat niet gebeurt, wat is dan het lot van de inzet van kunstmatige intelligentie bij autonome voertuigen? AG Connect vroeg het aan Leon Kester, senior research scientist bij TNO.

Is dit onderzoek een lakmoesproef voor de transparantie van machinelearningsystemen die worden ingezet bij autonoom rijdende voertuigen en in dit geval dus de Tesla?

 
Lees het hele artikel
Je kunt dit artikel lezen nadat je bent ingelogd. Ben je nieuw bij AG Connect, registreer je dan gratis!

Registreren

  • Direct toegang tot AGConnect.nl
  • Dagelijks een AGConnect nieuwsbrief
  • 30 dagen onbeperkte toegang tot AGConnect.nl

Ben je abonnee, maar heb je nog geen account? Neem contact met ons op!