Innovatie & Strategie

Artificial Intelligence
drone

VN en Europol: AI gevaar voor zelfrijdende auto en drone

Nieuwe bedreigingen geïnventariseerd in uitgebreid rapport.

Drone © CC0 - pixabay pixel2013
23 november 2020

Nieuwe bedreigingen geïnventariseerd in uitgebreid rapport.

Kunstmatige intelligentie dreigt huidige vormen van criminaliteit te versterken en biedt mogelijkheden om nieuwe kwaadaardige activiteiten te laten ontstaan. Die waarschuwing komt van een gezamenlijk rapport van de Verenigde Naties, Europol en IT-beveiliger Trend Micro.

Machine learning en AI kunnen de maatschappij enorme voordelen bieden, maar tegelijkertijd vormen ze een reële bedreiging in de vorm van criminaliteit. "Nu AI-toepassingen daadwerkelijk hun weg vinden in de dagelijkse praktijk, is het duidelijk dat dit een fundamentele technologie wordt voor onze toekomst", zegt Irakli Beridze, hoofd van het Centre for AI and Robotics bij het Interregional Crime and Justice Research Institute van de Verenigde Naties, tegen ZDNet.

"Net zoals de voordelen voor de maatschappij heel reëel zijn, geldt dat ook voor de dreiging van kwaadaardig gebruik." Belidze is een van de auteurs van het rapport Malicious Uses and Abuses of Artificial Intelligence (pdf).

Breed bereik aan foute toepassingen

In dat rapport sommen de auteurs een lange reeks aangrijpingspunten op waar kunstmatige intelligentie in de handen van kwaadwillenden een breekijzer kan vormen. Deze punten variëren van het inzetten van AI bij het raden van wachtwoorden en het breken van encryptie tot slimmere manieren om mensen te bewerken met social engineering en zelfs het misleiden van autonome voertuigen.

Zo noemen de auteurs in het rapport de mogelijkheid om de camerasystemen van zelfrijdende auto's voor de gek te houden zelfs een heel laagdrempelige manier. Dit schijnbaar complexe hackwerk valt zeer eenvoudig te doen. Uit een experiment blijkt dat een stukje zwarte tape op een verkeersbord genoeg is om de boordcomputer van een zelfrijdende auto de indruk te geven dat er ter plekke een andere maximumsnelheid geldt. Op die manier kan chaos worden gecreëerd wat criminelen kunnen gebruiken om bijvoorbeeld een overval te maskeren.

Drone-kapingen

De onderzoekers wijzen er ook op dat afleverdrones interessante objecten zijn voor criminelen. Zij kunnen de systemen die zorgen voor een veilige vlucht en correcte aflevering voor de gek te houden, door valse informatie richting de drone te sturen. Zo zijn kapingen uit te voeren voor ladingen zoals medicijnen, waardevolle spullen of apparatuur waar intellectueel eigendom op rust. Deze buit is niet alleen voor klassieke criminelen een gewild doelwit, maar ook voor staatsgestuurde hackers.

2
Reacties
Sander van der Linden 24 december 2020 11:50

Visionair Raymond Kurzweil noemt het punt waarop AI in staat zal zijn zichzelf te verbeteren, oftewel te herschrijven de ‘AI event horizon’ waarna niets meer hetzelfde zal zijn. Dit verbeteren zal met een onvoorstelbare snelheid gaan waarbij er een autonomie kan ontstaan waarbij de mens slechts een toeschouwer zal zijn. Tenminste, als we geen fundamentele barrieres gaan inbouwen die dit voorkomen.

Mr A.F. le Gras 28 november 2020 13:53

De ontwikkeling van AI vertoont meer en meer gelijkenis met de ontwikkeling van de atoombom. Hoe verder we er mee komen hoe duidelijker de abjecte gevaren ervan worden. Helaas is dat voor niemand een reden om pas op de plaats te maken, want eenieder sust zijn geweten met de gedachte dat "als ik het niet doe , doet een ander het wel". Voorspelbaar is dat deze ontwikkeling nog wel even doorgaat totdat we op het randje van de afgrond staan en constateren dat alleen een "non proliferatieverdrag voor AI" in staat zal zijn ons voor complete rampen te behoeden. Het is te hopen dat we alsdan alsnog tot inkeer komen.

Is dit de visie van een zwartkijker die spannende nieuwe ontwikkelingen niet ziet zitten ? Luister dan naar wat de echte AI experts zeggen :
1. Niemand zal straks nog verantwoordelijkheid kunnen nemen voor een complex AI systeem omdat elke vorm van controle daarop , anders dan met een nog gecompliceerder AI systeem, onmogelijk zal zijn.
2. Niemand kan straks nog de uitkomsten van op AI gebaseerde modellen verantwoorden omdat niemand meer kan weten welke verbanden precies in een dergelijk model gehanteerd worden.

Zijn deze gevaren te abstract en te ver weg ? Laten we ze dan vertalen naar iets concreets en dichtbij : u rijdt zo’n fantastisch autonoom rijdende Tesla en krijgt een ongeluk omdat de auto , terwijl u de krant zat te lezen, een onbegrijpelijke beslissing heeft genomen. Vervolgens komt u erachter dat Tesla elke aansprakelijkheid voor autonome beslissingen van de auto heeft uitgesloten (tenzij ú de ondeugdelijkheid van de Tesla-systemen kunt bewijzen) en dat u voor alle schade , ook die van de tegenpartij , mag opdraaien. Als u geluk hebt bent u nog verzekerd, maar dat zal niet lang meer duren, want in dat soort schades hebben verzekeringsmijen geen trek.

Welkom in de nieuwe wereld!

Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.