Elon Musk und Donald Trump

Elon Musk und Donald Trump

© REUTERS / Kevin Lamarque

Meinung

Longtermism: Die Moral der Milliardäre

Elon Musk in seiner Rolle als Schattenpräsident

Wir sollten nicht nur an heute und morgen denken, sondern das langfristige Wohlergehen der Menschheit im Blick haben. Das klingt eigentlich nach einem höchst rationalen und menschenfreundlichen Grundsatz. Wer würde da nicht zustimmen?

Aber dieser Gedanke lässt sich in eine höchst problematische Richtung verbiegen – nämlich dann, wenn man ihn ins Extreme übertreibt, und jedes heutige Leid mit Verweis auf eine ferne Zukunft für irrelevant erklärt. Das ist die Gefahr beim sogenannten Longtermism, einer Philosophie, die unter Silicon-Valley-Tech-Milliardären, von Elon Musk bis Peter Thiel, viel Zuspruch erhält.

Trillionen Menschen im Weltraum?

Wenn es um die langfristigen Zukunftsperspektiven unserer Spezies geht, denken viele Leute wohl an Gefahren wie Klimawandel oder Umweltverschmutzung. Doch für Fans des Longtermism sind das bloß Details. Sie denken nicht in Jahrzehnten oder Jahrhunderten, sondern in Millionen Jahren oder noch längeren Zeiträumen.

Longtermism-Vordenker, wie etwa der Techno-Philosoph Nick Bostrom, gleiten dann gerne in Science-Fiction-Gedankenspielereien ab: Vielleicht werden wir fremde Planeten besiedeln, weite Teile unserer Galaxie kolonisieren, vielleicht werden Menschen in völlig künstlich geschaffenen Biosphären-Raumschiffen durchs All driften. Heute gibt es rund 8 Milliarden Menschen. Wer sagt, dass es in Zukunft nicht Trillionen sein könnten, weit verstreut über unzählige Lebenswelten?

Wir würden hier gerne ein Youtube Video zeigen. Leider haben Sie uns hierfür keine Zustimmung gegeben. Wenn Sie diesen anzeigen wollen, stimmen sie bitte Youtube zu.

Diese astronomische Anzahl künftiger Menschen, so argumentieren Longtermism-Anhänger, haben moralisch gesehen denselben Wert wie wir. Somit sollten wir alles tun, damit diese zukünftigen Menschenmassen tatsächlich leben können. Das oberste moralische Gebot ist es also, das All zu erobern, fremde Planeten zu besiedeln und die Menschheit radikal zu vermehren.

Mit Logik in die Menschenfeindlichkeit

Das klingt zunächst durchaus logisch. Schon die philosophische Strömung des Utilitarismus im 19. Jahrhundert erklärte zum Ziel, das „größte Glück der größten Zahl“ von Menschen anzustreben. Aber wenn man dabei eine völlig hypothetische, zukünftige Zahl von Menschen miteinbezieht, führt das automatisch zu katastrophal menschenfeindlichen Konsequenzen.

Was bedeutet es schon, wenn heute die eine oder andere Milliarde Menschen leidet, wenn dafür ein glückliches Leben von Billionen in der Zukunft möglich wird? Jede noch so schlimme Katastrophe auf der heutigen Erde ist hinzunehmen, weil sie vom Glück künftiger Trillionen aufgewogen werden kann. Soll man armen, kranken, hungernden Menschen helfen? Nicht unbedingt. Ihr Leid ist zwar bedauerlich – aber sollten wir das Geld für Hilfsprogramme nicht lieber in neue Raketentriebwerke stecken, um das Ziel der Besiedelung fremder Himmelskörper ein paar Jahre früher erreichen zu können? Unterm Strich könnte das doch vielleicht eine viel größere Zahl von Leben retten – beziehungsweise ermöglichen.

Selbst Katastrophen wie der Klimakollaps sind aus Longtermism-Sicht bloß Kleinigkeiten: Soll das irdische Ökosystem halt kollabieren! Solange ausreichend technisches Personal übrigbleibt, um den Aufbruch ins All zu ermöglichen, ist das kein Problem! Was ist ein Ökosystem auf der Erde gegen 1.000 neue, die wir auf fremden Planeten schaffen werden?

Philosophischer Taschenspielertrick

Der Longtermism ist ein moralphilosophischer Taschenspielertrick: Als reicher Technologie-Fan legt man sich eine Zukunft zurecht, in der es unzählige reiche Technologie-Fans gibt – und schon kann man behaupten, Teil einer Mehrheit zu sein. Dann fordert man eine rücksichtlos unsolidarische Politik für reiche Technologie-Fans, kann aber gleichzeitig so tun, als sei das rational und moralisch. 

Logisch gesehen ist das natürlich nicht haltbar: Man kann nicht reale Probleme echter Menschen mit dem Wohlbefinden hypothetischer Menschen gegenrechnen. Man kann nicht alles dem Erreichen eines Zukunftsbildes unterordnen, von dem niemand weiß, ob es überhaupt möglich oder erstrebenswert ist. Moral ist eine komplizierte Sache. Wer behauptet, sie kaltblütig durchkalkulieren zu können, wie ein Risikokapital-Investment, sollte wohl lieber nicht für große politische Weichenstellungen verantwortlich sein.

Hat dir der Artikel gefallen? Jetzt teilen!

Florian Aigner

Florian Aigner ist Physiker und Wissenschaftserklärer. Er beschäftigt sich nicht nur mit spannenden Themen der Naturwissenschaft, sondern oft auch mit Esoterik und Aberglauben, die sich so gerne als Wissenschaft tarnen. Über Wissenschaft, Blödsinn und den Unterschied zwischen diesen beiden Bereichen, schreibt er regelmäßig auf futurezone.at und in der Tageszeitung KURIER.

mehr lesen
Florian Aigner

Kommentare