“Big Data auch für den Normalbürger relevant”
IBM Research Zürich entwickelt im Dome-Projekt (“Domes” sind im Englischen die Schüsseln von Radioteleskopen) neuartige Informationsverarbeitungssysteme, die mit enormen Datenmengen zurechtkommen. In Zusammenarbeit mit dem niederländischen Institut für Radioastronomie (ASTRON) wird an der IT-Roadmap für das Square-Kilometer-Array-Teleskop gearbeitet, das ab 2018 in Südafrika und Australien entsteht. Dieses SKA-Teleskop besteht aus tausenden Radioteleskopen, die über zwei Kontinente verteilt stehen und eine Gesamtfläche von einem Quadratkilometer haben. Wenn die Anlage 2024 ihren Betrieb aufnimmt, generiert sie pro Tag ungefähr 15 Exabytes an Daten (1 Exabyte sind eine Milliarde Milliarden Bytes, was etwa dem zweifachen des täglichen, weltweiten Datenverkehrs im Internet des Jahres 2011 entspricht). Das stellt die IT-Infrastruktur vor enorme Herausforderungen, da die Informationen von tausenden Quellen gesammelt, zusammengeführt, ausgewertet und gespeichert werden müssen.
“Bei solchen Systemen geht es immer um eine Abwägung zwischen den Anforderungen der Forscher, was die Signalqualität angeht, und dem Energiebedarf der Infrastruktur. Derzeit arbeiten wir mit Modellen, um den besten Weg zu finden, die einzelnen Teleskope zu bündeln. Es macht beispielsweise einen großen Unterschied, ob wir pro 250 oder 500 Antennen eine Basisstation einsetzen”, erklärt Engbersen der futurezone am Rande der IBM Developer Days 2014 in Wien. Mit heutigen IT-Systemen wäre die Datenmenge, die vom SKA-Teleskop generiert wird, nicht zu bewältigen. “Bis 2017 wollen wir wissen, was das System für die SKA-Anlage können muss und wie wir das technisch umsetzen können”, so Engbersen.
Anwendungen kommen zu den Daten
Für die Infrastruktur denken die Forscher auch neue Technologien an, etwa spezielle Beschleuniger-Chips, den Einsatz von GPUs oder neuartige optische Datenübertragungswege. “Bei der Speicherinfrastruktur denken wir daran, Flash-Speicher einzusetzen, da wir ähnliche Anforderungen wie große soziale Netzwerke haben. Die Rohdaten von den Teleskopen werden einmal geschrieben und dann viele Male ausgelesen. Dafür eignet sich Flash hervorragend, da die geringe Belastbarkeit bei Schreibvorgängen keine Rolle spielt”, sagt Engbersen. Aber auch die Algorithmen, die bei der Bearbeitung und der Verteilung der Daten zum Einsatz kommen, sind enorm wichtig. “”Hier gibt es noch viel Luft nach oben. Durch geschicktes Programmieren können wir Systeme schaffen, die enorme Datenmengen verarbeiten können. Das Bewegen von Daten ist beispielsweise aufwendiger als die eigentlichen Berechnungen. Wenn ich alle Operationen, die ich zu einem Datensatz brauche, auf einmal anstelle, ergeben sich enorme Geschwindigkeitsvorteile”, so Engbersen.
Hier findet in der IT-Industrie gerade ein Umdenkprozess statt: Bei steigenden Datenmengen macht es immer weniger Sinn, die Daten in ein Rechenzentrum zur Verarbeitung zu schicken. “Stattdessen werden wir in Zukunft die nötigen Anwendungen dorthin schicken, wo die Daten liegen. So können wir es schaffen, dass nur jene Daten, die auch wirklich gebraucht werden, verschickt werden, was die Infrastruktur schont”, erklärt der IBM-Forscher. Die Erkenntnisse, die aus der Erforschung solcher High-End-Systeme gewonnen werden, sollen längerfristig auch Firmen und Privatanwendern zugute kommen. Die Datenmengen wachsen schließlich auch in Unternehmen und Haushalten ständig. Big Data wird auch für Privatanwender zunehmend relevant”, so Engbersen.
Revolution für Gesellschaft
Daten aus sozialen Netzwerken, von Smartphones, Sensoren, Videokameras und anderen Geräten stehen schon heute in großen Mengen zur Verfügung. Die Analyse steckt aber erst in den Kinderschuhen. “Ich glaube, dass wir in fünf bis zehn Jahren sehen werden, dass die Auswertung dieser Informationen einen Umbruch bewirkt, der vergleichbar mit der Erfindung des Internets ist”, so der IBM-Forscher. Datenschutz-Bedenken sieht Engbersen dabei nicht als großes Problem. “Wir haben die Technologien, um den Schutz der Privatsphäre zu gewährleisten. Es hapert lediglich an der Umsetzung. Warum die Nachfrage seitens der Unternehmen hier so gering ausfällt, ist mir ein Rätsel”, so der Forscher.
Die Vorteile der geschickten Datenanalyse können jedenfalls in verschiedensten Bereichen für Verbesserungen sorgen, sei es durch intelligente Verkehrsleitsysteme oder durch smarte Stromnetze. “Die Daten sind vorhanden. Wenn wir sie nutzen, um ein intelligente Systeme zu bauen, können wir unsere Gesellschaft für alle verbessern”, sagt Engbersen.