Wie mit Sprachbefehlen Handys übernommen werden können
Spracherkennung ist auf Smartphones allgegenwärtig. Die persönlichen Assistenten von Apple oder Google nehmen via Spracherkennung Befehle entgegen, suchen nach Informationen im Web, rufen Webseiten auf oder tätigen Anrufe. Dass die Spracherkennung auch dazu benutzt werden kann, um Smartphones zu übernehmen, demonstrierten nun Forscher der University of California in Berkeley und der Georgetown University in Washington D.C.
„Hidden commands“
Weil kompromittierende Befehle von den Besitzern der Smartphones wahrscheinlich unterbunden würden, erstellten die Forscher „versteckte“ Sprachbefehle. Sie verfremdeten Befehle, wie etwa „Ok Google, open CKCD.com“ so, dass er für Nutzer unverständlich, aber vom Spracherkennungssystem verstanden werden konnte.
Über solche versteckten Befehle könnten Angreifer etwa Webseiten mit Schadcode aufrufen, kostenpflichtige Mehrwertnummern anrufen oder persönliche Daten abgreifen, führten die Forscher ihrer Studie „Hidden Voice Commands“ aus, die im August beim Usenix Security Symposium im texanischen Austin vorgestellt werden soll. Den Angriff zeigen sie auch in einem auf YouTube veröffentlichten Video.
Zwischen den Spracherkennungssystemen gebe es große Unterschiede, was das Verstehen versteckter Befehle betreffe, sagten die Forscher gegenüber der BBC. Apples Siri sei bei dem, was es als menschlichen Befehl akzeptiere, weit restriktiver als Googles Spracherkennungssystem. „Unsere Angriffe haben am besten mit Google-Apps funktioniert.“
Der verfremdete Befehl „Ok Google“ wurde etwa laut der Studie von 95 Prozent der maschinellen Systeme, aber nur von 22 Prozent der menschlichen Nutzer verstanden. Bei normaler Tonlage wurde er von 90 bzw. 89 Prozent der maschinellen und menschlichen Zuhörern erkannt. Ob Befehle verstanden würden, hänge auch von der Qualität der Lautsprecher und der Entfernung zwischen Smartphone und Audio-Quelle ab, sagten die Forscher gegenüber der BBC.
In Videos eingebettet
Verfremdete Befehle könnten etwa in YouTube-Videos eingebettet oder über Lautsprecher bei Veranstaltungen verbreitet werden, schreiben die Forscher in ihrer Studie. Audio-Beispiele können unter hiddenvoicecommands.com abgerufen werden.
Auch wenn es noch unwahrscheinlich sei, dass solche Angriffe tatsächlich durchgeführt würden, so seien sie doch ernst zu nehmen, warnen die Forscher unter Verweis auf die zunehmende Verbreitung von Spracherkennungssystemen in Smartphones, Smartwatches, aber auch im Haushalt, etwa bei Amazons Echo-Lautsprechern.
Sicherheitsexperten bezeichneten die Angriffe gegenüber der BBC als „interessant“. Sie empfehlen Spracherkennungssysteme, die ohne Authentifizierung der Nutzer auf Befehle reagieren, zu deaktivieren.