Microsoft stoppt diverse Gesichtserkennungstools.

Seit Jahren stehen Unternehmen wie Microsoft in der Kritik, mit ihren Gesichtsanalysetools die Öffentlichkeit zu gefährden.

© Microsoft

Produkte

Microsoft stoppt KI-gestützte Emotionserkennung

Microsoft stellt den öffentlichen Zugang zu einer Reihe von KI-gestützten Gesichtserkennungs- und Analysetools ein. Das teilte der Softwarehersteller in einem Statement mit.

Der Verkauf der „Emotion Recognition“, zu Deutsch „Emotionserkennung“, soll fast zur Gänze gestoppt werden. Diese verspricht anhand von Bildern und Videos die Gefühle einer Person zu identifizieren.

Derartige Tools stehen schon seit längerem in der Kritik. Gesetzgeber in den USA und Europa üben seit Jahren Druck auf Unternehmen wie Microsoft aus und versuchen den von ihnen entwickelten Technologien rechtliche Grenzen zu setzen.

Zweifel an Wissenschaftlichkeit

Seit 2021 prüfte Microsoft, ob seine Emotionserkennung überhaupt wissenschaftlich fundiert sei: "Diese Bemühungen warfen wichtige Fragen über den Datenschutz und den fehlenden Konsens über eine Definition von 'Emotionen' auf", sagt Sarah Bird, Produktmanagerin bei Microsoft Azure AI. Emotionen über verschiedene Regionen und Bevölkerungsteile hinweg zu verallgemeinern, sei dem Unternehmen nicht gelungen, heißt es weiter.

Ab dem 21. Juni 2022 wird die Funktion gemäß Microsoft nicht mehr angeboten. Kund*innen, die den Dienst aktuell nutzen, verlieren innerhalb eines Jahres Zugang zu dem KI-Tool.

Gesichtserkennung eingeschränkt nutzbar

Bei einer Microsoft-Anwendung wird die „Emotion Recognition“ allerdings bleiben, wie der Softwarehersteller mitteilte. Das Tool „Seeing AI“, das künstliche Intelligenz nutzt, soll weiterhin auf Emotionserkennung setzen. Es dient dazu Menschen mit Sehbehinderungen die Welt zu beschreiben.

Der Zugang zu „Seeing AI“ wird allerdings stark eingeschränkt. Ähnliche Hürden gibt es nun auch bei der Funktion „Custom Neural Voice“, eine Art Audio-Deepfake-Tool. Die Anwendung kann mittels künstlicher Intelligenz Stimmfarben echter Personen nachstellen.

Missbrauchsgefahr

Laut Produktmanagerin Bird habe das Tool viel Potenzial, vor allem in der Unterhaltungsbranche und in Sachen Barrierefreiheit. Allerdings „ist es auch leicht vorstellbar, wie es dazu benutzt werden könnte, Sprecher*innen in unangemessener Weise zu imitieren und Zuhörer*innen damit zu täuschen.

In Zukunft werde Microsoft den Zugang zu dieser Funktion auf ausgewählte Kund*innen beschränken und "die aktive Beteiligung des Sprechers bei der Erstellung einer synthetischen Stimme sicherstellen".

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare