© Reuters

Peter Glaser: Zukunftsreich

Auf der Suche nach dem Nichtcomputerisierbaren

Algorithmen können sehr kostspielig und gefährlich sein. Das erste Lebewesen, das durch einen Computer zu Tode kam, war eine Motte. Im Juli 1944 hatte die damals 37jährige Grace Murray Hopper, Mathematikerin und Offizierin der US Navy, an der Universität Harward mit dem ersten elektronischen Computer MARK I zu arbeiten begonnen. Das Elektronengehirn war mehr als 15 Meter lang, hatte 72 Byte Speicherplatz und konnte drei Additionen pro Sekunde ausführen. An einem heißen Augustnachmittag des Jahres 1945 fand Grace Hopper den ersten Bug. „Wir hatten keine Klimaanlage", erinnerte sie sich später, „und die Fenster standen offen." Im Protokollbuch ist um 15.25 Uhr der Start eines "Multi-Additions-Tests" verzeichnet. Neben dem nächsten Eintrag um 15.45 ist mit Klebstreifen eine Motte fixiert: "First actual case of bug being found." Relais #70, Schalttafel F - eine Motte im Relais. Das Tier hatte einen Kurzschluß zwischen zwei Röhren ausgelöst. Schon Ingenieure wie Thomas Edison hatten Konstruktionsfehler „bugs" (Ungeziefer) genannt.

Computerprogramme und die ihnen zugrundeliegenden Algorithmen sind keine klaren, gesicherten Verläufe aus Regeln. Schon geringste Abweichungen können dramatische Folgen nach sich ziehen. 1962 verlor die Nasa ihre erste interplanetarische Raumsonde Mariner 1, weil irgendwo im Programmcode der Raketensteuerung ein Querstrich fehlte.
Von der automatisierten Festsetzung der Kreditwürdigkeit bis hin zu hochkomplexen Software-Instrumenten von Hedge-Fonds entscheiden Algorithmen heute über die Entwicklung ganzer Volkswirtschaften. An die Stelle politischer Berater treten Computermodelle und Simulationen, die durch Datenmassen und die suggestive Gleichsetzung von Berechenbarkeit mit Zuverlässigkeit eine neue, nur schwer angreifbare Autorität ins Spiel führen.

Über das Gerangel um die Platzierung in den Google-Trefferlisten hinaus ist der Vormarsch der Algorithmisierung inzwischen auch in jenen pragmatischen Regionen menschlicher Intelligenzleistungen angekommen, zu denen der Journalismus gehört. Die amerikanische Firma StatSheet hat eine Software entwickelt, die automatisch Reportagen von College-Basketballspielen schreibt. Der Algorithmus wertet Spielstatistiken aus und kann aus Textbausteinen zusammengesetzte Artikel verfassen. Es sind keine großen Reportagen, eher Durchschnittsware. Aber firmeneigene Tests haben ergeben, dass 90 Prozent der Leser glauben, der Bericht sei von einem Menschen geschrieben worden.

2002 kam mit Google News die maschinelle Zusammenfassung von Nachrichten. Auch wenn ich kein Nachrichtenjournalist bin, stellte sich für mich als Autor sofort die Frage: Was kann ich, das die Maschine nicht kann? Ich halte das für eine Schlüsselfrage auf dem Weg in die digitale Welt – und nicht nur, was den Journalismus betrifft. Denn was automatisierbar ist, wird automatisiert werden.

Die programmgesteuerte Personalisierung und Feinverteilung der Datenströme im Netz ist in vollem Gang. Bei Facebook etwa wählt ein Algorithmus („EdgeRank") zwischen 5 und 10 Prozent der Menschen aus, mit denen man insgesamt in Kontakt steht, und entscheidet, an welcher Stelle, wie lange und wann deren neueste Äußerungen in den sogenannten Hauptmeldungen erscheint – Journalisten, die sich bisher als Gatekeeper zu dem betrachtet haben, was lesenswert, hörenswert und sehenswert ist, haben Gesellschaft bekommen.

Seit dem Internet-Aktivisten Eli Pariser aufgefallen ist, dass verschiedene seiner Bekannten auf die selbe Suchanfrage im Netz unterschiedliche Ergebnisse angezeigt bekamen, fürchtet er um die Gemeinschaft. Die Menschen könnten, so seine Sorge, in eine „Filterblase" eingesperrt werden. Pariser glaubt, dass es gefährlich ist, wenn die Menschen immer mehr Informationen bekommen, die nur noch ihrer vorgefaßten Einstellung entsprechen und Gegenmeinungen verblassen.

Das aber ist eine kulturpessimistische Sicht. Sie holt ein abgelegtes Menschenbild aus der Mottenkiste – das des wehrlosen Medienopfers. 1957 prägte Vance Packards Buch „Die geheimen Verführer" die Vorstellung eines ohnmächtigen, von Medien und Werbung manipulierten Konsumenten. Diese Leitvorstellung hielt sich bis in die siebziger Jahre – allerdings hatte das angebliche Medienopfer da längst mit der Fernbedienung ein neues Machtinstrument in der Hand. Mit dem Internet hat sich die Kanalvielfalt nun ins Millionenfache erweitert. Vor allem: Wenn an irgendeiner Stelle zensiert oder manipuliert wird, dann wird darüber nicht mehr nur in herkömmlichen Massenmedien berichtet – sondern auch in den zahllosen neuen Meinungsblasen im Netz.

Mehr zum Thema

Peter Glaser, 1957 als Bleistift in Graz geboren, wo die hochwertigen Schriftsteller für den Export hergestellt werden. Lebt als Schreibprogramm in Berlin und begleitet seit 30 Jahren die Entwicklung der digitalen Welt. Ehrenmitglied des Chaos Computer Clubs, Träger des Ingeborg Bachmann-Preises und Blogger. Für die futurezone schreibt er jeden Samstag eine Kolumne.

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare