Development

Software-ontwikkeling
Uber crash

Software-optie leidde tot dodelijk Uber-ongeluk

Een te tolerante instelling in de autopilotsoftware van Uber was de oorzaak van een dodelijke aanrijding in maart

NTSB-medewerkers onderzoeker crash met zelfsturende Uber © NTSB
8 mei 2018

Een te tolerante instelling in de autopilotsoftware van Uber was de oorzaak van een dodelijke aanrijding in maart

De software zag de overstekende fietser als een 'vals positief' object waarvoor het niet nodig was te stoppen.

Nieuwsdienst The Information heeft het verhaal van bronnen bij de National Transportation Security Board (NTSB), meldt Ars Technica. Het ongeluk gebeurde in Tempe in de staat Arizona op 18 maart.

Volgens de redacteur van The Information hebben de sensoren geregistreerd dat het slachtoffer de straat overstak met haar fiets. Ze werd het slachtoffer van de instellingen die de software-ontwikkelaars hebben gekozen. De sensoren registreren permanent allerlei objecten rondom de auto. De 'slimme' software maakt keuzes welke objecten daadwerkelijk een gevaar opleveren zodat de auto daarop moet reageren. Zijn de instellingen te voorzichtig, gaat de auto voortdurend in de remmen of maakt uitwijkmanoeuvres. Dat is oncomfortable voor de passagiers en kan op zichzelf weer gevaarlijke verkeerssituaties opleveren. Zijn de instellingen minder kritisch, neemt het gevaar op een directe aanrijding toe. De voetganger in Tempe lijkt het slachtoffer te zijn geworden van de laatstgenoemde keuze.

Bij de ontwikkeling van zelfsturende autotechnologie is alle aandacht gericht op het ontwikkelen van sensoren die zo'n duidelijk mogelijk beeld geven van de geregistreerde objecten zodat de software betere beslissingen kan maken over wat 'vals positieven' of niet. Uber wilde tegenover Ars Technica niet reageren op het bericht in The Information. Het bedrijf beroept zich op de vertrouwelijkheid van het lopende onderzoek bij de NTSB. 

Lees meer over
Lees meer over Development OP AG Intelligence
4
Reacties
Paul 13 mei 2018 19:15

Om voor apparaten en software termen als 'intelligent' en 'zelfsturend' te blijven hanteren is IMO bedriegend. Software is niet intelligent of dom, het is geprogrammeerd. Er zou een wet/wetten moeten komen om ervoor te zorgen dat een apparaat met het handelen nooit een levend wezen kan bedreigen in gezondheid of leven.
Ik zal graag van alle zinnige ondersteunende middelen gebruik maken die mij ook zelf als bestuurder beter maken.

Guido Steusel 12 mei 2018 16:48

Elk ongeluk is er een teveel, maar de computer last zich niet afleiden en is straks veiliger dan de mens waar de meeste fouten (80%) onstaat door menselijk falen! Maar we zijn er helaas nog niet.

Brenda 08 mei 2018 16:18

Ik voorzie grote problemen met reeds aangereden personen...kinderen... kleuters peuters en huisdieren.....onder de detectiegrens van 'gevaar voor botsing' ; dan vol gas verder...

Kees 08 mei 2018 12:09

Dit soort zaken zijn onvermijdelijk. Daarom is er altijd een oplettende bestuurder nodig, die ook de eindverantwoordelijkheid voor de keuzes, en alsnog kan uitwijken en/of remmen.

Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.