Innovatie & Strategie

Security
Echo

Liedje hackt intelligent agents als Siri, Alexa en Cortana

Spraakgestuurde assistenten zijn te misleiden met gemanipuleerde populaire liedjes

Amazon Echo © Amazon
30 januari 2018

Spraakgestuurde assistenten zijn te misleiden met gemanipuleerde populaire liedjes

Systemen aangestuurd met spraak blijken een nieuw type achterdeur te bevatten. Door commando's te verwerken in liedjes kunnen ze opeens heel onverwachte dingen doen die niet altijd in het voordeel zijn van de eigenaar.

Dat systemen met kunstmatige intelligentie om de tuin te leiden zijn, is al langer onderwerp van onderzoek. Zo zijn voorbeelden bekend waarbij stelselmatig verkeerde plaatjes worden aangeboden om het systeem te ontregelen. Daarbij worden pixels in de plaatjes veranderd waardoor deze een verborgen boodschap bevatten.

In een samenwerking van IBM en verschillende universiteiten in de VS en China is uitgezocht in hoeverre spraakgestuurde systemen vatbaar zijn voor misbruik. Ze slaagden erin liedjes te manipuleren waardoor de digitale assistenten in actie kwamen voor opdrachten als 'Okay Google, read mail' en 'Echo, open front door' of 'Echo, ask Capital One to make a credit card payment'.

Verandering niet hoorbaar

De onderzoekers startten met een willekeurig gekozen liedje en een opname van een spraakopdracht uit een text-to-speech systeem. Beiden werden vervolgens met de open source spraakherkenningssoftware Kaldi en een Deep Neural Network en een machine learning algoritme zo gematcht dat de uitkomst door de de spraakherkenningsoftware werd herkend als het gewenste commando, maar niet door een mens kon worden opgemerkt in het liedje. Het resultaat heeft voor de achteloze luisteraar hooguit een lichte ruis. De onderzoekers speelden de veranderde nummers vervolgens af met een JBL clip 2 speaker op een afstand van 1,5 meter van bijvoorbeeld een Amazon Echo met een succesratio van 60 tot 94 procent.

Ze stellen in hun artikel dat de nummers ook via de radio, tv of andere afspeelapparatuur kunnen worden gebruikt.

Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.