Wenn Siri lauscht: Apple stoppt die Auswertung von Mitschnitten weltweit
Dieser Artikel ist älter als ein Jahr!
Apple setzt weltweit die Praxis aus, Fragmente von Aufnahmen seiner Sprachassistentin Siri nachträglich von Menschen auswerten zu lassen. In einem späteren Software-Update sollen die Nutzerinnen und Nutzer ausdrücklich um Erlaubnis dazu gefragt werden, erklärte der iPhone-Konzern dem Tech-Blog „TechCrunch“ in der Nacht auf heute. Bis dahin werde das Verfahren gestoppt und auf den Prüfstand gestellt.
Angehört und abgetippt
Bei Assistenzsoftware wie Amazons Alexa, dem Google Assistant und Siri wurden Fragmente von Mitschnitten seit Jahren zum Teil auch von Menschen angehört und abgetippt, um die Qualität der Spracherkennung zu verbessern.
Es geht dabei zum Beispiel um Fälle, wo die Sprachassistenten versagten, falsche Erkennung von Aktivierungswörtern oder neue Sprachen und Dialekte. Die Anbieter betonen, dass die Aufnahmen anonymisiert werden. Den Nutzern war die Praxis allerdings weitestgehend nicht bewusst, bis vor einigen Monaten erste Medienberichte dazu auftauchten.
"Für die Verbesserung"
Apple verwies schon länger in einem Sicherheitsdokument darauf, dass auch „eine geringe Anzahl von Transkriptionen“ für die Verbesserung des Dienstes eingesetzt werden könne. Die Nutzer werden bei der Einrichtung von Siri aber nicht explizit auf diese Möglichkeit hingewiesen. In einem Bericht der Zeitung „Guardian“ vergangene Woche erzählte der Mitarbeiter eines Apple-Dienstleisters, auf den Aufnahmen seien zum Teil sehr private Details zu hören.
Erst gestern war bekannt geworden, dass Google nach einem ähnlichen Bericht über seinen Assistant bereits Anfang Juli das Anhören der Mitschnitte durch Menschen in der EU ausgesetzt hat.
Kommentare