Liessmann: "Menschen sind letztlich nicht ausrechenbar"
Dieser Artikel ist älter als ein Jahr!
Der Frage, ob die wachsenden Datenmengen und immer besser werdenden Datenverarbeitungskapazitäten (im Fachjargon "Big Data") zu einer "gläsernen Zukunft" führen, gingen die Diskutanten bei der Eröffnung des 29. Alpbacher Finanzsymposiums Mittwochabend nach. Der Philosoph Konrad Paul Liessmann brachte seine Skepsis zu Algorithmen und Trendforschung zum Ausdruck: "Die Menschen sind letztlich nicht ausrechenbar".
Liessmann ortet eine verführerische Annahme, dass durch große Datenmengen die Prognosen treffsicherer werden könnten. Denn die Menschen hätten immer schon wissen wollen, was ihnen die Zukunft bringe. Dies erinnere an das Orakel von Delphi. Das menschliche Verhalten könne man aber auch mit vielen Daten letztlich nicht vorhersehen. "Die Trefferquoten des Orakels von Delphi lagen wesentlich höher als jene moderner Wirtschaftsprognosen", sagte der Philosoph. Kontrollbank-Chef Rudolf Scholten ergänzte, dass niemand die Ukraine-Krise oder den Absturz des Ölpreises vorhergesagt habe.
Endlose Blase
Die von Konzernen wie Amazon eingesetzten Algorithmen funktionierten nach dem Prinzip selbsterfüllender Prophezeiungen, indem sie aus vergangenem Verhalten die Zukunft berechneten. Das schließe aber Veränderungen und Innovationen aus, warnte Liessmann. Innovationskraft bedeute, mit unerwartetem Neuen umgehen zu können - was durch solche Computerprogramme verhindert werde. "Ich komme aus dieser Blase nie heraus". So schlage ihm Amazon etwa bei Büchern immer Philosophiebücher vor, während er auch für Kriminalromane zu begeistern wäre, brachte der Universitätsprofessor für Philosophie ein Beispiel.
Bei Wahlprognosen könnten die zugrunde liegenden Daten noch so umfangreich sein, doch niemand wisse genau, wie sich die Veröffentlichung der Prognose auf das tatsächliche Wahlverhalten auswirke. Wenn etwa bei der bevorstehenden Wiener Gemeinderatswahl die Prognose laute, dass eine bestimmte Partei die Mehrheit bekomme, dann könnte eine Reaktion der Wähler sein "das muss ich verhindern, daher wähle ich die anderen" oder aber "ich wähle genau diese Partei, weil ich will zu den Gewinnern gehören".
Respekt vor Schrems
Im Science-Fiction-Film "Minority Report" habe man schon einige Schritte weiter gedacht: Wenn die gesammelten Daten indizieren, dass jemand voraussichtlich ein Verbrechen begehen werde, obwohl er selber noch nicht einmal daran gedacht habe, und er deswegen unschädlich gemacht werde, dann stelle das bisherige Vorstellungen auf den Kopf. Liessmann wandte sich an das Publikum von Finanzmanagern und forderte sie auf, sich so etwas für ihre Branche vorzustellen: "Sie sitzen hier relativ unbescholten. Stellen Sie sich vor, jemand würde kommen und Sie verhaften, weil ein Algorithmus festgestellt hat, dass Sie in einem halben Jahr einen großen Finanzbetrug begehen".
Auch die neue "Apple Watch" sei ein Beispiel dafür: Die Computeruhr könne das Verhalten ihres Trägers analysieren und ihn etwa zu mehr Sport auffordern. Wenn diese Daten zur Krankenversicherung und zum Arbeitgeber kämen, drohten Folgen wie eine teurere Krankenversicherung und eine Kündigung wegen gesundheitlicher Risiken. Wichtig sei nicht, wieviel Daten gesammelt würden, sondern man müsse politisch entscheiden, wer wann was mit diesen Daten machen könne, so Liessmann.
Großen Respekt äußerte Liessmann gegenüber Max Schrems, dessen Datenschutzklage gegen Facebook das transatlantische Abkommen "Safe Harbor" gekippt hat. "Kein Konzern, keine Bürgerinitiative, sondern ein einzelner Mensch hat diesen Kampf aufgenommen". Kritik übte der Philosoph an der Haltung der EU im NSA-Skandal. "Heute sagt man, na ja, da kann man halt nichts machen gegen die Amerikaner - im 19. Jahrhundert wäre ein solcher Umgang mit sensiblen Daten eine Kriegserklärung."
Kommentare