iPhone mit Siri

Apples Sprachassistent Siri ist mit der Attacke angreifbar

© Foto von Miguel Tomás auf Unsplash

Digital Life

Neue Ultraschall-Attacke kann Smartphones kapern

Forschende in den USA haben mit NUIT (Near-Ultrasound Inaudible Trojan) eine neue Art entwickelt, Smartphones und Smart Speaker anzugreifen. Dabei werden Schwächen in Mikrofonen und Sprachassistenten ausgenutzt, um die Kontrolle über Geräte zu erlangen. 

Anfällig sind mit Apples Siri, Googles Assistant, Microsofts Cortana und Amazons Alexa alle großen Sprachassistenten. Allerdings in unterschiedlichem Ausmaß. In einem Interview mit The Register erklärten das Forschungsteam, bestehend aus Guenevere Chen von der Universität von Texas, ihre Doktoratsstudentin Qi Xia und der Professor Shouhuai Xu, wie die Attacke abläuft. 

Dabei werden Sprachbefehle in für Menschen nicht hörbaren Ultraschall umgewandelt. Die Geräte bzw. die smarten Assistenten können sie aber sehr wohl wahrnehmen. Anschließend werden die Befehle in Apps oder YouTube-Videos “versteckt”. Spielen die Angegriffenen sie ab, gelangen sie zu den smarten Assistenten, ohne, dass Menschen es bemerken. 

Eine Hürde ist, dass der Assistent den Befehl aufnehmen, darauf aber nicht laut reagieren soll. Das könnte Angegriffene auf den Plan rufen. Das ist den Forscher*innen allerdings nur bei Apples Siri gelungen. Dort konnten sie die Lautstärke durch den Befehl so senken, dass man die Antwort nicht hört. Beim Google Assistant, Cortana und Alexa konnte die Antwort nicht stummgeschaltet werden. 

Tür aufsperren per Sprache

Am Beispiel von Siri zeigen die Sicherheitsforscher*innen, was durch die Attacke möglich ist. So kann ein sehr schnell abgespielter Befehl “Speak six Percent” Siri dazu bringen, die Lautstärke seiner Antworten auf 6 Prozent zu senken. Anschließend können die Angreifer*innen durch “Open the door”, die Haustür aufsperren, vorausgesetzt es handelt sich dabei um ein vernetztes bzw. smartes Schloss. 

Die Attacken können auch aus der Ferne durchgeführt werden, wie die Forscher*innen angeben. So könnten die Befehle auch über ein Zoom-Meeting abgespielt werden, sofern die Angegriffenen ihr Smartphone neben sich liegen haben. 

Verschiedene Geräte anfällig

Die Wissenschaftler*innen haben die Angriffe mit mehreren verschiedenen Geräten getestet, darunter Smartphones, Notebooks und Smart Speaker. Ob sie anfällig sind, hängt unter anderem auch davon ab, wie nah der Lautsprecher am Mikrofon verbaut ist. Wenn jene nah beieinander liegen, können die Geräte mit der Methode attackiert werden. 

Die Wissenschaftler*innen raten, verstärkt auf Kopfhörer anstatt Lautsprechern zu setzen. Sie sind zu leise, als dass dadurch die versteckten Befehle verschickt werden können. Wenn möglich, sollte man bei seinem Sprachassistenten auch aktivieren, dass er nur auf die persönliche Stimme reagiert. Hersteller könnten außerdem eine Sperre von Nahultraschall-Frequenzen integrieren. 

Weitere Details zu den Angriffen wollen die Forscher*innen beim USENIX Security Symposium im August demonstrieren.

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare