Künstliche Intelligenz ertappt Ladendiebe in Echtzeit
Dieser Artikel ist älter als ein Jahr!
In Japan werden Ladendiebe künftig nicht mehr durch den klassischen Kaufhausdetektiv erwischt, sondern durch eine künstliche Intelligenz (KI). Die entsprechende Technik wurde bereits vor einiger Zeit erstmals demonstriert, Ende Juli soll nun der Verkauf beginnen, wie The Verge berichtet. Dahinter stehen der japanische Telekombetreiber NTT East und das Start-up Earth Eyes Corp.
Basis des Systems ist eine gewöhnliche Überwachungskamera. Die aufgezeichneten Bilder werden allerdings nicht von einem Menschen angesehen, sondern von einem automatisierten System. Die KI erkennt dabei anhand der Bewegungen der Personen, ob sie stehlen. Wird ein Ladendieb als solcher identifiziert, bekommt der Shop-Besitzer eine Benachrichtigung auf seinem Handy. Die Funktionsweise wurde bereits vor einiger Zeit in einem Video demonstriert.
Um das System zu nutzen, ist eine spezielle Überwachungskamera notwendig. Sie soll Ende Juli in Japan zu einem Preis von 1840 Euro auf den Markt kommen. Für die Cloud-Anbindung werden nochmal 34 Euro monatlich fällig, wie ein Sprecher von NTT East angab. In den kommenden drei Jahren soll das System laut dem Unternehmen in 10.000 Geschäften zum Einsatz kommen. Vorwiegende Zielgruppe seien große Unternehmen, man wolle kleine aber nicht automatisch ausschließen.
Basis der Technologie ist eine Open-Source-Technologie der Carnegie-Mellon-Universität. Sie erlaubt es bei Live-Videos die Posen von Menschen zu analysieren.
Nicht fehlerfrei
NTT East gesteht ein, dass das System noch Schwachstellen hat. So werden etwa vereinzelt Kunden, die ein Produkt aus dem Regal nehmen und wieder zurückstellen, fälschlicherweise als Diebe identifiziert. Auch Mitarbeiter, die Produkte sortieren, können den Alarm auslösen. Darüber, wie genau die Technik aktuell ist, will das Unternehmen keine Zahlen nennen.
Derart automatisierte Überwachungsmethoden werfen darüber hinaus immer Fragen bezüglich Privatsphäre und Datenschutz auf. Problematisch könnte es auch dann werden, wenn das Datenmaterial, mit dem das System trainiert wird, zu einer Voreingenommenheit gegenüber gewissen Menschengruppen führt. Das System könnte so diskriminierend agieren.
Kommentare