© dpa-Zentralbild/Waltraud Grubitz

Peter Glaser: Zukunftsreich

Wie man der Zukunft schadet

Forscher bei Microsoft und am Technion-Israel Institute of Technology in Haifa entwickeln eine Software, die mehr als zwei Jahrzehnte an Archivmaterial der New York Times, die Wikipedia und eine Reihe weiterer Quellen im Netz auswertet, um vorhersagen zu können, wann beispielsweise Epidemien ausbrechen oder es zu Unruhen in der Bevölkerung kommen kann. Die Forschungsarbeiten gehören zu jener modernen Art von virtuellem Bergbau, die sich Data Mining nennt und die sich nun unter der Bezeichnung Big Data schick gemacht hat – die Analyse und die Veredelung von Informationen, die sich aus immer größeren Datengebirgen gewinnen lassen.

Und im Gegensatz zu Menschen ist Software unermüdlich – mit ihren langen, flinken Tentakeln kann sie Nachrichtenarchive, historische Korpora und Echtzeit-Feeds durchgraben und Datenstrukturen zutage fördern, die Menschen vielleicht nie hätten finden können.

Zusammenhänge zwischen Wirbelstürmen und Mehlspeisen
Wer die Werkzeuge der digitalen Prognostik beherrscht, kann überraschende Erkenntnisse  gewinnen, etwa über Zusammenhänge zwischen Wirbelstürmen und Mehlspeisen. Im September 2005 raste Hurricane Frances durch die Karibik auf die Küste Floridas zu. Während die Meteorologen ständig ihre Vorhersagen über seinen Weg aktualisierten, wurde in einem Rechenzentrum in Bentonville im US-Bundesstaat Arkansas ein anderes beeindruckendes Prognosewerkzeug in Betrieb genommen. Die IT-Spezialisten des weltgrößten Handelskonzerns Wal-Mart untersuchten, womit Umsatz gemacht worden war, als ein paar Wochen zuvor Hurricane Charly zugeschlagen hatte.

Untersuchungsobjekt waren die Datenmengen über das Konsumverhalten der Kunden, mit denen die Rechner von Wal-Mart vollgestopft sind. Allein in den USA betreten jede Woche etwa 100 Millionen Käufer einen der mehr als 3000 Supercenter und 600 Discount Stores der Firma. Die Goldsuche in den Datengebirgen war erfolgreich. So stellte sich heraus, dass nicht nur die üblichen Taschenlampen in die Supermärkte an der Küste geliefert werden mußten. „Wir wußten zum Beispiel nicht, dass die Leute vor einem Hurricane siebenmal mehr Pop-Tarts [eine Art Erdbeertäschchen] als sonst kaufen", staunte die damalige IT-Leiterin Linda Dillman.

Kalte Bücherverbrennung
Während Wal-Mart künftig katastrophenbedrohte Küstenbewohner immerhin davor bewahren kann, dass ihnen die Nervennahrung ausgeht, könnten die Prognostiker, die auf alte Ausgaben der New York Times vor 2001 zurückgreifen, mit ihren Versuchen, in die Zukunft zu blicken, an einer merkwürdigen Form von mangelndem Material scheitern. Mancher Inhaber von Archivmaterial hat in den zurückliegenden Jahren mit seinen Versuchen, neue wirtschaftliche Möglichkeiten im digitalen Universum zu erschließen, mehr Schaden angerichtet als Nutzen. Im Juni 2001 entschied der oberste Gerichtshof in den USA in dem Verfahren The New York Times Company vs. Jonathan Tasini, dass die Online-Publikation von Zeitungsartikeln nicht unter die herkömmlichen Veröffentlichungsrechte in einer gedruckten Zeitung fällt. Es sind eigenständige Veröffentlichungen, die auch eigenständig honoriert werden müssen.

Viele amerikanische Zeitungsverlage, darunter auch die New York Times, fingen daraufhin still und leise an, ihre Online-Datenbanken zu bereinigen. Die Beiträge von freien Autoren, die eventuell Honorarnachforderungen hätten stellen können, wurden gelöscht – eine Art kalter Bücherverbrennung. Stanley Katz, ein Historiker an der Universität Princeton, nannte die Aktion der Verleger „verheerend". Wissenschaftlern, die häufig mit Zeitungsdatenbanken arbeiten, war der Schwund nach und nach aufgefallen – massenhaft Material aus den Siebziger-, Achtziger- und den Neunzigerjahren war atomisiert worden. Es ist das aberwitzige Gegenteil dessen, was Google mit seinem nach wie vor kontrovers diskutierten Digitalisierungsprojekt Google Books vorgeworfen wird.

Bezahlt fürs Löschen
Der Vorgang ist kein Einzelfall geblieben. Neue Erscheinungsformen systematischer Informationsminderung haben im Gegenteil dazu geführt, dass ein neuer Begriff für das häßliche Phänomen geprägt wurde: Depublizieren.

So sieht in Deutschland der Rundfunkänderungsstaatsvertrag vor, dass die öffentlich-rechtlichen Sender, nachdem sie jahrelang journalistisch hochwertige Angebote erstellt haben, ihre Archive im Internet wieder reduzieren müssen. Auch wenn sie von den Nutzern bereits über die Gebühren finanziert wurden und unbefristet eingestellt werden könnten, dürfen die verbliebenen Inhalte nur noch kurze Zeit im Netz bleiben. „Ich werde von Rundfunkgebühren dafür bezahlt, mit Rundfunkgebühren erstellte Inhalte zu löschen", faßte ein verantwortlicher Redakteur den Aberwitz zusammen. Weit über eine Million Dokumente sind so schon neutralisiert worden oder verschwunden.

Ein solcher restriktiver Umgang mit Informationen läuft nicht nur dem veränderten Mediengebrauch von Netznutzern entgegen. Die meisten sehen das Internet heute als ein anwachsendes Archiv an, dessen Wissensbestandteile durch die zunehmende Vernetzung ständig an Wert und Nützlichkeit gewinnen. Auch den reichen Archivbestand der Futurezone hätte es in einer ähnlichen Umbruchphase übrigens fast erwischt. Aber alle zwischen 1999 und 2010 erschienenen etwa 56.000 Artikel, die gelöscht werden sollten, sind, nach einem Umweg über eine ehemalige digitale Rettungsinsel namens depub.org, wieder republiziert und - nomen est omen - bereit für weitere überraschende Ausblicke in die Zukunft.

Mehr zum Thema

Peter Glaser, 1957 als Bleistift in Graz geboren, wo die hochwertigen Schriftsteller für den Export hergestellt werden. Lebt als Schreibprogramm in Berlin und begleitet seit 30 Jahren die Entwicklung der digitalen Welt. Ehrenmitglied des Chaos Computer Clubs, Träger des Ingeborg Bachmann-Preises und Blogger. Für die futurezone schreibt er jeden Samstag eine Kolumne.

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare