© alphaspirit - Fotoliaalphaspirit - Fotolia

Technologie-Outlook

IBM: Big Data ist wie der Greißler ums Eck

Anstatt stundenlang im Internet nach Angeboten zu suchen, könnten Kunden zukünftig automatisch und in Echtzeit auf ihrem Smartphone informiert werden, wenn ein bestimmtes Kameramodell im Elektronikgeschäft ums Eck gerade in Aktion ist. "Das ist wie früher, als die Verkäuferin im Tante-Emma-Laden den Kunden noch persönlich kannte und diesem zugeschnittene Angebote und Waren nahelegen konnte. Entgegen der derzeitigen E-Mail- und Werbeflyer-Flut wird der Kunde nur über die Dinge informiert, die ihn wirklich interessieren", meinte Rappoport auf der diesjährigen Future-Network-Technologiekonferenz in Zürich.

Hoher Aufwand an Datenverarbeitung
Damit Tante Emma bzw. der Greißler ums Eck wieder Realität werden, ist aber ein hoher Aufwand an intelligenter Datenanalyse und -verknüpfung notwendig. Als Datenpool gelten von Menschen erzeugte Informationen ebenso wie die zunehmend in technischen Geräten und Objekten verbauten Sensoren, die Temperatur, Geolocation, aber auch jede Interaktion des Geräts mit seiner Umwelt messen können. Neben strukturierten Daten, über die vor allem Unternehmen verfügen, wie Adresse, Geschlecht, Alter oder was an Stammkunden-Daten noch alles gesammelt wurde, spielt bei Big Data vor allem die Auswertung von unstrukturierten Daten aus sozialen Netzwerken, E-Mails und anderen Kommunikationsformen im Netz eine Rolle.

Selbst ein einzelner Tweet kann erstaunliches Informationspotenzial beinhalten. Ein Tweet wie "Bin mit der Swiss von London in Zürich gelandet, brauche einen Kaffee bei Starbucks" enthalte mit "Swiss", "Zürich Airport" und "Starbucks" gleich drei Unternehmen. Ohne den Twitter-User persönlich zu kennen, kann ein intelligentes System aufgrund der Angaben erkennen, auf welchem Terminal der Fluggast gelandet ist und dass er jetzt nach einem Kaffee sucht. "Wenn man diese Informationen richtig und vor allem in Echtzeit analysieren kann, könnte man dem Fluggast ein paar Vorschläge für Kaffee am Flughafen machen, ihm am Handy anzeigen, wie er auf dem schnellsten Weg dorthin kommt und sogar noch einen Coupon für eine Ermäßigung beilegen", sagt Rappoport.

Ein interessanter Tweet aus einer Million
Das Problem liege für Unternehmen zunächst einmal in der Quantität. Um zu so einer "Tweet-Perle" zu gelangen, müsse man wohl eine Million Tweets analysieren, so der Trend-Forscher. Als größte Herausforderung sieht IBM allerdings nicht nur die schiere Quantität der zu verarbeitenden Daten, sondern vielmehr, dass ein Großteil der Daten nicht absolut zuverlässig seien. "Vieles, das auf Facebook oder Twitter gepostet wird, ist natürlich Interpretationssache. Während Menschen aufgrund des allgemeinen User-Verhaltens sehr schnell einschätzen können, wie vertrauenswürdig oder aussagekräftig ein Posting ist, tun sich Maschinen bei so einer Analyse schon schwerer", gibt Rappoport zu bedenken.

Und selbst wenn eine Person als Informationsquelle absolut zuverlässig ist, kann laut dem IBM-Forscher nicht davon ausgegangen werden, dass es sich dabei um die einzige richtige Wahrheit handle. Eine Auswertung von Unfallprotokollen etwa ergebe unterschiedliche Schilderungen und somit auch unterschiedliche Informationen als Ausgangslage, selbst wenn die Unfallzeugen die Wahrheit sagen würden.

Was ist mit Paris Hilton gemeint?
Dazu komme, dass viele Daten absolut zweideutig seien. "Für einen Computer ist es gar nicht einfach zu erkennen, ob ich bei der Eingabe `Paris Hilton` nun das Hotel in Paris oder eigentlich die bekannte Persönlichkeit meine", so Rappoport. "Auch die Durchschnittstemperatur des Death Valley mit 25 Grad, die ein Computer im Vergleich von Regionen heranziehen und als äußerst lebenswerter Ort anführen könnte, ist irreführend, wenn ich weiß, dass es dort in der Nacht Minusgrade und am Tag plus 50 Grad hat."

Hat die Unzuverlässigkeit von Daten bei Shopping-Angeboten oder anderen weniger kritischen Services keine schwerwiegenden Auswirkungen, spielen diese im Gesundheitsbereich oder bei Extremsituationen eine wesentlich wichtigere Rolle. "Ein fehlerhaftes Signal aus einem der mit GPS bestückten New Yorker Schulbusse kann dann schnell zu einer großen, teuren Rettungsaktion führen, weil der Überwachungsmonitor der Einsatzkräfte den Bus im Hudson River anstatt auf der nahegelegenen Straße anzeigt. Hier muss es in Zukunft folglich zuverlässige Überprüfungsmechanismen geben", erläutert Rappoport.

Datenschutz Voraussetzung
Dass das Potenzial von Big Data nur unter Berücksichtigung des Datenschutzes ausgeschöpft werden kann, steht für den IBM-Forscher allerdings außer Frage. "Viele der skizzierten Beispiele, in denen persönliche Informationen ausgewertet werden, dürfen meiner Meinung nach nur mit Opt-in, also dezidierter Zustimmung der betreffenden Person umgesetzt werden. Für gesellschaftlich relevante Erkenntnisse, die etwa im Gesundheits- oder Schulsystem, für den Katastrophenschutz oder in der Städteplanung gewonnen werden, muss hingegen die Anonymisierung und Sicherheit der verarbeiteten Daten absolut gewährleistet sein", so Rappoport im Gespräch mit der futurezone.

Mehr zum Thema

  • IBM: "Wir hätten das iPhone vorhersagen können"
  • Big Data entscheidet über die Kreditwürdigkeit
  • EMC: "Wird Hunderttausende private Clouds geben"
  • Big Data: Kundeninfos als Goldgrube

Hat dir der Artikel gefallen? Jetzt teilen!

Martin Jan Stepanek

martinjan

Technologieverliebt. Wissenschaftsverliebt. Alte-Musik-Sänger im Vienna Vocal Consort. Mag gute Serien. Und Wien.

mehr lesen
Martin Jan Stepanek

Kommentare