In Musik versteckte Befehle lassen Alexa und Co Einkäufe tätigen
Dieser Artikel ist älter als ein Jahr!
Bastler haben es geschafft, sprachgesteuerte Assistenzsoftware mit Befehlen zu steuern, deren Frequenz so hoch ist, dass sie von Menschen nicht gehört werden können, wie die New York Times berichtet. Diese Signale können in normalen Audiodateien versteckt werden, etwa in YouTube-Videos und anderen Dateien. Wenn Alexa, Cortana, Google Assistant oder Siri die Befehle hören, führen sie die Anweisungen aus.
Diese sogenannte "DolphinAttack" wurde von chinesischen Experten schon im vergangenen Jahr vorgeführt. Damals musste ein Angreifer sich aber nahe am Eingabemikrofon der jeweiligen Systeme befinden. Die New York Times zitiert jetzt eine Studie von Sicherheitsforschern der UC Berkeley. Darin beschreiben die Forscher, wie sie Mozillas quelloffene "DeepSpeech"-Plattform mit einem für Menschen unhörbaren Signal täuschen konnten, das in einer anderen Audiodatei versteckt war.
Die Wissenschaftler gehen zudem davon aus, dass auch andere neugierige Nutzer diese Taktik bereits entdeckt haben. "Ich denke, dass böswillige Menschen das bereits nutzen", sagt ein am Projekt beteiligter Spezialist. Die Forscher glauben, dass sie jedes auf dem Markt verfügbare Assistenzsystem mit ihrem Trick überlisten können. Durch versteckte Befehle können solche sprachgesteuerten Programme dazu gebracht werden, Nachrichten zu verschicken, Einkäufe zu tätigen oder Geld zu überweisen.
Auch wenn dieser Art von Missbrauch durch die Notwendigkeit von bestätigenden Klicks bei vielen Vorgängen ein Riegel vorgeschoben wird, zeigen die Ergebnisse der Forscher doch, dass im Bereich der Sprachbefehle die Sicherheit bislang mangelhaft ist. Die großen Hersteller haben ihre Produkte auf den Markt gepresst, wenn es um die Gewährleistung der Sicherheit geht, sind sie aber gerne leise.
Kommentare