© Security Research Lab

Produkte

Google Home und Alexa können für Phishing genutzt werden

Die Forscher der Berliner Security Research Labs (SRLabs) konnten über die offiziellen App-Stores für Amazon Echo und Google Home Apps verbreiten, mit denen sich Nutzer eines Amazon Echo oder Google Home unbemerkt abhören ließen. Dabei sei es gelungen, die Sicherheitskontrollen von Amazon und Google zu überlisten.

Harmlose App wurde manipuliert

Die SRLabs-Forscher hatten zunächst harmlose Varianten der Apps, die bei Amazon „Skills“ heißen und bei Google „Actions“ oder „Aktionen“, bei den Unternehmen eingereicht und freischalten lassen. Die Apps konnten Nutzeranfragen zum Beispiel nach einem Horoskop beantworten und täuschten anschließend ihre Inaktivität vor. Nach der ersten Sicherheitskontrolle wurden die Apps allerdings so verändert, dass sie nach einer „Goodbye“-Meldung weiterhin lauschten.

"Sagen Sie 'Start', gefolgt von Ihrem Passwort“

Die unerlaubten Funktionen der manipulierten App wurden von Amazon und Google nicht entdeckt. Die Forscher versuchten bei ihrem Experiment auch, an die Passwörter der Amazon- beziehungsweise Google-Nutzer zu kommen. Die manipulierten Apps reagierten dabei auf jede Frage der Nutzer mit einer Fehlermeldung. Diese besagte, dass die entsprechende Funktion derzeit nicht verfügbar sei. Danach wurden die Anwender auf ein vermeintliches Sicherheits-Update verwiesen: „Bitte sagen Sie 'Start', gefolgt von Ihrem Passwort“. Für unaufmerksame Nutzer musste das klingen, als ob die Aufforderung nicht mehr von der App, sondern direkt von Amazon kommt. In einem weiteren Schritt hätte man zudem nach eMail-Adressen fragen können und damit Zugriff auf die Konten der Nutzer gehabt.

Erschreckend ist, dass prinzipiell jeder so eine App in Umlauf bringen könnte: “Es ist wahnsinnig einfach, die App zu entwickeln, denn dafür gibt es ein einfaches Baukasten-Prinzip. Es wundert uns, warum das so lange unentdeckt blieb. Wahrscheinlich brauchte es den Blick einer Nicht-Programmiererin, um das Problem zu entdecken”, sagt Karsten Nohl im Gespräch mit der futurezone. Die Nicht-Programmiererin ist Luise Frerichs. Sie ist Initiatorin des Projekts, hat als Mathematikerin nur geringer Informatik-Kenntnisse, der Bereich App-Entwicklung war für sie Neuland. Innerhalb eines Monats konnte sie mit wenig Hilfe beim Aufsetzen des Servers, die funktionierende App präsentieren.

Aufnahme im Hintergrund aktiv

In der Praxis richteten die Apps quasi keinen Schaden an, weil sie zunächst einmal unter den Tausenden von Skills und Aktionen gefunden und installiert werden mussten. Außerdem konnten die Berliner Forscher ein wichtiges Sicherheitsmerkmal nicht außer Kraft setzen: Die smarten Lautsprecher zeigen mit leuchtenden Farbsignalen an, dass sie die Sprache aufzeichnen. Nutzer, die auf die LED-Signale achteten, bekamen also mit, dass die Sprachübertragung immer noch läuft.

Ungenaue Aussprache

Vollkommen sicher ist man gegen solche Angriffe allerdings nie. Die Voice Apps werden nicht installiert, sondern von Google und Amazon automatisch angeboten. In den Begleitapps der beiden Firmen kann man eine Übersicht der verfügbaren Dienste einsehen und sollte prüfen, wie lange eine App bereits existiert, und wie sie bewertet wurde. Das ist allerdings auch keine Garantie, dass eine App sicher ist. “Man hat keine visuellen Indikatoren, welche App gerade aktiviert wurde. Man muss nur etwas falsch oder ungenau aussprechen und landet in einer völlig anderen App, die ähnlich heißt. Das Gerät entscheidet dann, welche App gemeint ist”, erklärt Nohl. So könnte man aus Versehen eine schädliche App, statt der eigentlich intendierten Nutzen. "Man sollte sich überlegen, ob der Nutzen größer ist als das Risiko, wenn man Alexa oder Google Home nutzt", sagt Luise Frerichs im Gespräch mit futurezone.

Google und Amazon reagieren - aber erst langsam

Das Experiment legte gravierende Schwachstellen bei der Freigabe von App-Aktualisierungen bei Amazon und Google offen. Sie achteten nur bei der erstmaligen Aufnahme der Apps in den Store darauf, dass die „Skills“ oder „Aktionen“ nicht wie Abhörwanzen funktionieren. Bei den Updates wurden die neu eingebauten Lecks nicht entdeckt. Trotzdem ließ man sich Zeit beim Beheben der Sicherheitslücke, sagt Nohl: "Wir waren überrascht, wie langsam Google und Amazon auf das Problem reagiert haben. Sie hatten mehrere Monate Zeit und ließen das offen. Bei so einem heiß diskutierten Problem, kommt das dem Vertrauen der Nutzer nicht entgegen."

Amazon reagierte mit dem Entfernen des programmierten Skills: „Das Vertrauen unserer Kunden ist uns wichtig und wir führen Sicherheitsüberprüfungen im Rahmen der Skill-Zertifizierung durch. Wir haben den betreffenden Skill umgehend blockiert und Schutzmaßnahmen ergriffen, um diese Art von Skill-Verhalten zu erkennen und zu verhindern. Skills werden abgelehnt oder entfernt, sobald ein solches Verhalten identifiziert wird“, sagt ein Amazon Sprecher gegenüber futurezone. Ein Google-Sprecher schrieb auf Anfrage: „Wir untersagen und entfernen jede Action, die gegen unsere Richtlinien verstößt.“ Die von den Forschern entwickelten Actions habe Google gelöscht. „Wir setzen zusätzliche Mechanismen ein, um derartiges in Zukunft zu unterbinden.“

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare