Hands-on: Wenn das iPhone 4S zurückredet

© Franz Gruber

Interview
07/27/2012

IBM: "Wir hätten das iPhone vorhersagen können"

Der "Global Technology Outlook" des IT-Riesen IBM sagt Jahr für Jahr die wichtigsten Trends der nächsten Jahre in der IT-Branche voraus. Im Interview mit Martin Schmatz, einem der Autoren des diesjährigen GTO, fand die futurezone unter anderem heraus, wieso IBM das iPhone vorhersehen hätte können und wie Daten in Zukunft sicher archiviert werden können.

von Michael Leitner

Die Zeiten von IBM als Dominator der IT-Branche mögen zwar bereits seit den 90er-Jahren vorbei sein, dennoch hat der IT-Riese durch seine langjährige Erfahrung immer wieder bewiesen, dass er noch ein gewichtiges Wort mitzureden hat. Seit 1982 veröffentlicht die mehr als 3.000 Mitarbeiter zählende Forschungsabteilung von IBM mit dem Global Technology Outlook jährlich einen Bericht, der die Trends der kommenden Jahre zusammenfasst und dabei bereits in den vergangenen Jahren immer wieder einige gute Treffer landen konnte.

Die futurezone sprach mit Martin Schmatz, einem der Verantwortlichen für den Global Technology Outlook und Leiter der Abteilung Systems im Schweizer IBM-Labor Rüschlikon, über die Trends der nächsten Jahre und wie er die Entwicklung des iPhones und Griechenlands voraussehen hätte können.

futurezone: Sie waren unter anderem für ein Kapitel des GTO verantwortlich. Welche anderen Aufgaben hat die Forschungsabteilung?
Schmatz: Die Forschungsorganisation ist organisiert wie das alte britische Empire - die Sonne geht niemals unter. Das sind neun Labors, rund um den Globus verteilt. Wir sind quasi die Augen und Ohren des Unternehmens und sollen voraussagen, wo denn die IT-Industrie als Ganzes hingeht mit einem Zeithorizont von drei bis acht Jahren. Das Längste, das ich derzeit am Radarschirm habe, befindet sich in der Größenordnung von 20 bis 25 Jahren.

Was wäre das?
Wenn Sie die Kurve anschauen, wie viel Energie für eine Logikoperation in einer CPU aufgewendet wird, so liegen die Punkte seit 1940 einer logarithmisch-linearen Skala auf einer ziemlich schönen Geraden. In eben 20 oder 25 Jahren schneidet die Linie die Gerade und dann wird die Genauigkeit der Floating Point Unit wegen der hohen thermischen Energie dramatisch sinken. Das wird dann dazu führen, dass wir uns etwa ab 2018 sehr konkret damit beschäftigen müssen, wie wir Rechnerstrukturen bauen, die mit unsicheren Resultaten umgehen können

Wie ermitteln sie solche Trends?
An diesem Prozess sind alle 3.000 Forschungsmitarbeiter beteilig. Wir sehen uns Trendlinien an und versuchen neue Möglichkeiten zu erkennen. Nur hören wir, im Gegensatz zu vielen anderen, nicht bei einer Trendlinie auf, sondern fragen weiter nach. Auch die unterstützenden Trends, die einen Haupttrend am Leben erhalten, sind wichtig. Hier gibt es drei simple Varianten. Einerseits können alle Unterstützungstrends wunderbar parallel sein, zum Beispiel bei der Entwicklung eines neuen Betriebssystems, für das mehr Rechenleistung, Grafikleistung benötigt werden. In dem Fall müssen nur ein paar grobe Steine frühzeitig aus dem Weg geräumt werden, damit dann die Entwicklungsarbeit ihre Arbeit tun kann.

Was ist, wenn diese Trends nicht parallel verlaufen?
Das ist deutlich spannender, denn wenn sie steiler sind, ist die Gefahr groß, dass irgendwas obsolet wird. Zum Beispiel: IBM war lange absoluter Leader im High-End-LCD-Display für Computer. Wir haben die Panels immer etwas größer gemacht, dabei aber auch die Pixel immer weiter verkleinert. Leider sind die Pixel schneller kleiner geworden als die Panels größer, und irgendwann konnte man mit dem freien Auge nicht mehr erkennen, dass die Pixel kleiner werden. Unsere Mitbewerber hatten da aus ihrer Vergangenheit einfach die besseren Karten, sodass wir dann relativ schnell aus diesem Business ausgestiegen sind. Glücklicherweise konnten wir das durch eine Trendanalyse schon drei Jahre vorher sagen. Der dritte Fall ist, wenn die Unterstützungsgerade einen langsame, weniger steile Steigung hat. Dann baut sich eine gewisse Spannung auf und irgendwann wird es krachen.

Haben Sie ein Beispiel für so einen Fall?
Griechenland ist ein Paradebeispiel. Die Staatsverschuldungen und Zinsentwicklungen als Linien nebeneinander gelegt hätten bereits früh gezeigt, dass es das zerreissen wird.

Und in der IT?
In den 90er Jahren ist der Bedarf an Rechenleistung sehr schnell gestiegen, deshalb hat man sehr viele bipolare Transistoren integriert. Leider ist aber auch die Fähigkeit, diese Schaltungen zu kühlen, deutlich langsamer gewachsen. Das hat dann zum großen Schritt Richtung CMOS-Technologie geführt, auch für High-End-Computersysteme.

Das sind alles Beispiele für bereits bestehende Dinge - wie können sie nun tatsächlich neue Trends erkennen?
Als Forscher haben wir immer die Trends für verschiedene kleine und größere Sachen. Wenn sie keinen Haupttrend haben, aber eine Unsumme von solchen Trendlinien, dann sind einige dieser Trendlinien parallel. Und dann stellt sich die spannende Frage: "Was kann man aus diesen parallelen Trendlinien für einen komplett neuen Haupttrend machen?" Das perfekte Beispiel: Wenn sie gewusst hätten, dass sich Pixeldichte, Energieverbrauch von Prozessoren und Speichermedien, Batterielebensdauer und Touchscreens in den vergangenen Jahren so entwickeln, hätten sie sämtliche Ingredienzen für das iPhone gehabt.

Da ist aber sehr viel Konjunktiv dabei.
Ich sage ja auch bewusst, wir hätten es vorhersagen können. Vielleicht haben wir es sogar getan, ich bin mir nicht ganz sicher. Zum Teil haben wir es getan, aber nicht in dem Ausmaß. Zum GTO 2004 hat uns ein Telefonhersteller aus dem Norden ausgelacht, als wir gesagt haben, dass die Telefonfunktion nebensächlich und das Internet deutlich wichtiger sein wird.

Starten wir einen neuen Versuch: Was wäre Ihrer Meinung nach ein massiver Trend für die nächsten Jahre?
Ich lehne mich einmal weit aus dem Fenster und sage, dass Überwachungskameras in den nächsten Jahren dramatisch mehr benutzt werden. Ich rede dabei nicht nur von Parkleitsystemen oder einer simplen Stauvorhersage, sondern auch von der Marktforschung. Autohersteller können so direkt auf der Straße und nicht nach vielen Wochen oder Monaten irgendwann einmal aus der Statistik herauslesen, welche Modelle und Farben besonders beliebt sind.

Kommen wir zum diesjährigen GTO - was sind die wichtigsten Themen?
Im 2012er GTO geht es, mit Ausnahme von einem Kapitel, das sich mehr um das Interagieren von Menschen mit IT-Unterstützung beschäftigt, darum, wie Business Analytics und Analytics die Wirtschaft als Ganzes ziemlich stark verändern wird. Seit den fünfziger Jahren war die Industrie immer produktorientiert. Irgendwann in den späten achtziger Jahren hat man dann den Übergang zu Dienstleistungen gemacht. Jetzt steht der nächste Schritt in der industriellen Evolution in Richtung Lösungen an. Ein Unternehmen, das sich auf Lösungen spezialisiert, muss die Bedürfnisse seiner Kunden sehr gut verstehen. Ein gutes Beispiel wäre ein Start-up, das alle notwendigen Aufgaben von einer Firma statt einem dutzend verschiedener Unternehmen abwickeln lässt. Jemand, der einen Webshop betreiben will, den interessiert es eigentlich nicht wirklich, wie groß die Harddisk im Database-Server ist. Wichtig ist, dass ein Webshop eine hohe Verfügbarkeit hat, das ist die Lösung. Das ermöglicht auch vollkommen neue Möglichkeiten bei der Preisgestaltung, denn nun kann man sich am Profit des Unternehmens orientieren statt wie bisher einen Preis festzusetzen.

Ein anderes wichtiges Stichwort ist Big Data.
Im Jahr 2015 werden rund 80 Prozent der verfügbaren Daten eine niedrige Gewissheit haben, dass sie korrekt sind. Die Menge der Daten ist unglaublich, riesige Datenmengen, die da miteinbezogen und immer wieder abgeglichen werden müssen, um dann daraus neues Wissen zu extrahieren. Das bedeutet unter anderem, dass wir bis 2018 in der Lage sein müssen, die sogenannte Exascale-Barriere zu durchbrechen, das heißt eine Trillion Rechenoperationen pro Sekunde.

Wieso ist es trotz dieser gewaltigen Datenmengen nicht möglich, menschliche Sprache zu analysieren, vor allem aus Social Media-Daten, und eine künstliche Intelligenz damit zu füttern?
Das geht schon. Wenn wir daran denken, dass letztes Jahr Watson, der eigentlich eine POWER7-Maschine mit hochintelligenter Software ist, in Jeopardy die Besten geschlagen hat. Deshalb würde ich behaupten, dass das durchaus geht. Von IBM gibt es bereits durchaus Lösungen, die durch hunderttausende Twitter-Feeds und Blogs gehen, um herauszufinden, wie die Resonanz auf ein neues Produkt ausfällt. Ein Autohersteller hat zum Beispiel seine Motorenreihe angepasst und ein Schokoladenriegelhersteller hat blitzartig wieder auf pflanzliche Fette umgestellt hat, weil das offenbar in Blogs einen Riesenaufschrei hervorgerufen hat. Das wird bereits heute öfter von großen Firmen eingesetzt, als man glaubt.

Wie gehen sie mit privaten Daten von Mitarbeitern um? Laut GTO sollen ja Daten wie Arbeitsmuster, Reaktionen auf Prämien und Einfluss in Sozialen Online-Netzwerken gesammelt werden, um effiziente Teams zusammenzustellen.
Sie müssen das selbstverständlich anonymisiert machen. In Zürich ist Sicherheit ein sehr großes Forschungsgebiet und eines der Forschungsfelder ist das Identity Mixing. Gewisse Charakteristiken sind einfach nicht wichtig in gewissen Situationen. Wenn sie in eine Bar gehen, wird den Barkeeper Ihr Wohnort wenig interessieren, er möchte nur Ihr Alter sehen. Da können Sie Algorithmen nehmen, die Identitäten bis zur Unkenntlichkeit vermixen. Es gibt leider derzeit noch kein Beispiel, wo das konkret angewendet wird. Aber ich glaube, dass sie diese Technik auch dazu verwenden könnten, um die Kompatibilität von zwei Mitarbeitern zu vergleichen, ohne private Daten preiszugeben. Natürlich gibt es da nach wie vor gewisse Löcher, aber die gibt es fast überall.

Mehr zum Thema

  • IBM: Gewinnplus dank Software-Sparte
  • IBM: App soll beim Einkaufen helfen
  • IBM-Supercomputer mit Warmwasserkühlung
  • IBM-Chefin fordert IT-Ferialjobs für Lehrer

Martin Schmatz (geb. 1967) ist seit 2008 Leiter der Abteilung Systems im IBM Forschungslabor Rüschlikon. Dabei widmet er sich insbesondere der Forschung im Bereich der Serversysteme und Datencentermanagement. Seit 2006 gehört er unter anderem dem IBM Technical Expert Counsel an, 2011 wurde er in den Rang eines Senior Members der Standardisierungsorgansiation IEEE erhoben. Er war knapp drei Monate im Watson Research Lab tätig und hält derzeit mehr als 30 Patente.

eine Newsletter Anmeldung Platzhalter.

Wir würden hier gerne eine Newsletter Anmeldung zeigen. Leider haben Sie uns hierfür keine Zustimmung gegeben. Wenn Sie diesen anzeigen wollen, stimmen sie bitte Piano Software Inc. zu.