Innovatie & Strategie

AI-systemen trainen op big data alleen geeft problemen
Moreel acceptabel gedrag aanleren lukt niet zonder kritische blik van de mens.
Het hele concept van de inzet van machine learning bij autonome systemen krijgt nu te maken met een stresstest. De Amerikaanse dienst voor verkeersveiligheid gooit de knuppel in het hoenderhok met kritische vragen aan Tesla over het functioneren van de Autopilot onder gevaarlijke omstandigheden. Maar het gaat om meer dan dat, vindt AI-safetyexpert Leon Kester.
De Autopilot van Tesla gaat op de pijnbank. De National Highway Traffic Safety Administration (NHTSA) wil opheldering over hoe het systeem reageert op auto's van hulpdiensten met zwaailichten en sterk reflecterende strepen. De aanleiding is een serie ongelukken met dodelijke afloop. Maar kan Tesla dat inzicht wel verschaffen? En als dat niet gebeurt, wat is dan het lot van de inzet van kunstmatige intelligentie bij autonome voertuigen? AG Connect vroeg het aan Leon Kester, senior research scientist bij TNO.
Is dit onderzoek een lakmoesproef voor de transparantie van machinelearningsystemen die worden ingezet bij autonoom rijdende voertuigen en in dit geval dus de Tesla?
Registreren
- Direct toegang tot AGConnect.nl
- Dagelijks een AGConnect nieuwsbrief
- 30 dagen onbeperkte toegang tot AGConnect.nl
Ben je abonnee, maar heb je nog geen account? Neem contact met ons op!