© /Peter Howell/IStockphoto.com

Interview
10/01/2016

Big Data: Wie Firmen wissen, wann Kunden wütend werden

Datenanalysen helfen Firmen vorherzusagen, wann ihre Maschinen ausfallen und wann ihre Kunden wütend werden. Think-Big-Analytics-Gründer Ron Bodkin über Trends bei Big Data.

von Patrick Dax

Ob bei Telekomfirmen, die ihre Kunden davon abhalten wollen, den Anbieter zu wechseln, Banken, die Betrugsfälle in Echtzeit erkennen und rasch Gegenmaßnahmen ergreifen wollen, oder Fabriken, in denen fehlerhafte Produkte automatisch erkannt und Produktionsabläufe in Echtzeit korrigiert werden. Big Data, die Sammlung, Analyse und Nutzung von großen Datenmengen, kommt bei Unternehmen zunehmend zum Einsatz. Die futurezone hat mit Ron Bodkin, dem Gründer von Think Big Analytics, das Unternehmen bei der Implementierung von Big Data-Technologien berät, am Rande der Teradata Partners Conference in Atlanta/Georgia über Big Data-Trends gesprochen.

futurezone: Mit Think Big beraten Sie Unternehmen und Organisationen, wie sie Big Data für sich nutzen können. Was machen Sie genau?
Ron Bodkin: Wir helfen unseren Kunden bei der Auswahl und der Implementierung von Big Data Technologien, beim Datenmanagement mit Hadoop, Spark, NoSQL und anderen Technologien. Und wir unterstützen sie bei der Erstellung von Datenanalysemodellen, damit sie auf Basis der Daten Entscheidungen treffen können. Zu unseren Kunden zählen große Banken, Telekommunikationsunternehmen, aber auch Medienhäuser, Werbefirmen und der Handel.

Wie kommt Big Data bei ihren Kunden zum Einsatz?
Big Data kommt bei vielen Unternehmen etwa bei der Personalisierung von Services, bei der Interaktion mit den Kunden und bei der Messung von Kundenzufriedenheit zum Einsatz. Bei Telekommunikationsunternehmen ist die Abwanderung von Kunden ein großes Thema. Mit Big Data können Sie prognostizieren, welche Kunden wechseln wollen und ihnen entsprechende Angebote machen. Unternehmen können über Datenanalysen von Sensordaten aber auch Vorhersagen treffen, wann etwa in der Produktion Teile zu Bruch gehen oder auf Basis der Daten errechnen, wie Produktionsprozesse besser gestaltet werden können. Solche Anwendungsfälle zu ermöglichen, macht einen großen Teil unserer Arbeit aus.

Welche Daten fließen in solche Analysen mit ein?
Üblicherweise sammeln wir große Mengen von Daten, auch solche, die auf den ersten Blick nicht von großem Wert erscheinen. Es können Netzwerkdaten, Daten über die Interaktion mit Websites, Kundenanrufe, Aufnahmen aus Call Centern, Social-Media-Feeds oder Sensordaten sein. In komplexen Konfigurationen können etwa auch Software-Logs von Internet-of-Things-Geräten von Bedeutung sein. Die Daten werden später gefiltert und verfeinert und in unsere Vorhersagemodelle eingespeist. Am Anfang ist es für uns aber wichtig über soviele Daten wie möglich zu verfügen.

Die Datenanalyse findet in vielen Fällen in Echtzeit statt, wie werden aus Daten dann konkrete Aktionen?
Viele Anwendungsfälle haben Echtzeitkomponenten, etwa die Interaktion mit Kunden, um ihnen die richtigen Angebote zu machen. Das erfordert ein Echtzeitverständnis von Verhaltensdaten. Auch um etwa bei Geräteausfällen einen Alarm auszulösen und schnell reagieren zu können, müssen die Daten in Echtzeit analysiert werden. Bei diesen Echtzeit-Anwendungsfällen fließt auch eine Menge Arbeit in Vorhersagemodelle, die entsprechend der Vorkommnisse aktualisiert werden müssen, um auf künftige Ereignisse reagieren zu können. Wir arbeiten etwa mit einer großen europäischen Bank an Datenmodellen zur Betrugsbekämpfung, bei denen neuronale Netze und Deep-Learning-Technologien zum Einsatz kommen.

Welche Technologie-Trends sehen Sie bei Big Data?
Es geht in Richtung Automatisierung von Datenanalysen. Das ist eine große Sache und wird dazu führen, dass mehr und mehr Unternehmen Echtzeitsysteme zur Integration von Vorhersagemodellen in ihre Applikationen implementieren. Auch Deep-Learning-Techniken haben großes Potenzial, wenn es darum geht Modelle aus Rohdaten zu errechnen.

Was heißt das konkret? Welche Anwendungen resultieren daraus?
Es gibt eine Reihe von Anwendungsfällen, die etwa Bilddaten verwenden. Wir haben einen Prototypen für ein Deep-Learning-System das mittels Bilderkennung die Modelle vorbeifahrender Autos identifizieren kann. Wer einen BMW fährt, bekommt dann von Werbetafeln an der Autobahn andere Werbung ausgespielt als ein Ford- oder Opel-Fahrer. Bilderkennung ist ein Gebiet auf dem wir mit Deep Learning eine ganze Reihe von Anwendungen sehen werden. Auch im Sicherheitsbereich oder in der Produktion, wo Mängel bei Produkten festgestellt werden können. Einer unserer Kunden wendet Deep Learning zur Analyse von Stimmungen bei Anrufen im Callcenter an. Dabei wird der Tonfall von Anrufern analysiert, um festzustellen, ob Kunden wütend werden.

Viele Technologien die bei Big-Data-Ökosystemen zum Einsatz kommen sind Open Source. Woran liegt das?
Open Source Technologien sind für Innovationen bei Big Data zentral, viele neue Ansätze zur Arbeit mit Big Data sind daraus entstanden. Hadoop, Spark, Presto und Kafka sind alles Beispiele dafür. Viel davon fließt auch in kommerzielle Technologien ein und findet dann auch wieder sein weg zurück in quelloffene Technologien. Viele Innovationen im Big Data Ökosystem gehen auf die digitalen Giganten, die Googles und Facebooks dieser Welt zurück. Google hat etwa sein Deep Learning Framework Tensor Flow freigegeben und Facebook arbeitet and Torch, das auch Open Source ist. Oder Presto. das auch von Facebook entwickelt wurde, um riesige Mengen an Daten in Hadoop-Systemen analysieren zu können. Heute kommt es bei vielen Unternehmen zum Einsatz.

Disclaimer: Die Reisekosten zur Teradata Partners Konferenz in Atlanta wurden von Teradata bezahlt.

Kundenbeziehungen in der digitalen Welt

Big Data und Datenanalysen verändern die Beziehungen zwischen Unternehmen und ihren Kunden. Möglichkeiten für Unternehmen, Datenanalysen zu nutzen, werden beim Teradata Business Forum Mitte Oktober in Wien aufgezeigt.

Zu Gast sind unter anderem Google-Österreich-Chef Markus Kienberger, Dieter Trimmel, Produktverantwortlicher bei der Telekom Austria, der Datenanalyst Jan Romportl von O2 Tschechien und Martin Wilcox von Teradata.

Das Teradata Business Forum findet am 18. Oktober 2016 von 13.00 bis 19.00 im Imperial Riding School Renaissance Vienna Hotel (Ungargasse 60, 1030 Wien) statt. Interessierte können sich unter der E-Mail-Adresse info.austria@teradata.com unter Angabe ihres Unternehmens und ihrer Position für die Veranstaltung registrieren.

Die futurezone ist Medienpartner der Veranstaltung.