"Gefahren von künstlicher Intelligenz wurden vernachlässigt"
Der Philosoph Nick Bostrom von der Oxford University ist maßgeblich mitverantwortlich dafür, dass künstliche Intelligenz (KI) und damit verbundene mögliche Gefahren heute hitzig diskutiert werden. Als Mitgründer der World Transhumanist Association glaubt der Vordenker trotzdem daran, dass die Menschheit mit Hilfe von Technik ihre Grenzen überwinden können wird. Im futurezone-Interview erklärt Bostrom, was er von der technologischen Zukunft erwartet.
futurezone: Sind sie Optimist oder Pessimist, was die technische Entwicklung angeht?
Nick Bostrom: Ich habe sowohl Hoffnung als auch Befürchtungen, was die Zukunft der technischen Entwicklung betrifft.
Ihr einflussreiches Buch über die Entwicklung künstlicher Intelligenz ist mittlerweile drei Jahre alt. Was hat sich auf dem Gebiet seit Erscheinen des Buchs getan?
Die Entwicklung der Technologie ist schneller vorangekommen, als wir gedacht haben. Vor allem der Bereich maschinelles Lernen ist förmlich explodiert. Die Zeitpläne sind also wohl etwas aggressiver, als wir für das Buch angenommen haben. Aber es hat sich seither auch eine Diskussion um mögliche Gefahren bei der Erforschung von KI entwickelt, was positiv ist. Davor wurde das Thema vernachlässigt. Zudem hat sich ein neues Forschungsfeld aufgetan, das sich mit dem Problem der Kontrolle von AI beschäftigt. Es gibt heute technische Fachartikel, die sich damit beschäftigt, wie wir KI-Systeme in Einklang mit menschlichen Interessen entwickelt können.
Wie sehen die aggressiveren Zeitpläne aus?
Ich glaube, es gibt immer noch große Unsicherheit in den geschätzten Zeitplänen für die technische Entwicklung. Menschen haben keine sehr gutes Bilanz vorzuweisen, wenn es um die Vorhersage künftiger Entwicklungen geht. Ich denke, die Wahrscheinlichkeitsverteilung der möglichen Entwicklungspfade ist etwas enger definiert als früher, aber immer noch verschmiert an den Rändern. Wir müssen wohl abwarten.
Bleibt die Entwicklung vielseitiger künstlicher Intelligenz vielleicht doch ein Traum?
Es sind Szenarien vorstellbar, in denen keine KI entwickelt wird, die das Prädikat “intelligent” wirklich verdient. Möglich wäre etwa, dass die Menschheit zerstört wird - durch eigenes Verschulden oder Katastrophen - bevor es soweit ist. Für alle anderen Fälle wird es aber schon schwieriger. Ich denke, dass die Entwicklung von intelligenten, lernfähigen Systemen auf Maschinensubstrat unausweichlich ist, wenn Wissenschaft und Technik sich frei entfalten können. Wenn meine komplettes Weltbild falsch ist, könnte ich mich natürlich irren. Dieses Risiko besteht immer.
Ist der technische Fortschritt heute zu schnell für Politik und Gesellschaft?
Das ist in der Tat besorgniserregend. Technologie, Kultur und Politik beeinflussen sich immer gegenseitig. Es ist deshalb sehr schwierig abzuschätzen, welches Szenario wünschenswert wäre. In manchen Fällen wäre eine langsamere Entwicklung vielleicht vorteilhaft, damit Politik und Gesellschaft mehr Zeit haben, Schritt zu halten. Trotzdem ist die Welt heute, wenn wir sie mit der vor 100 Jahren vergleichen, deutlich stabiler - auch dank der technologischen Entwicklung. Es wäre vielleicht besser für die Menschheit, wenn die Entwicklung einiger Technologien beschleunigt und die anderer verlangsamt würde. Eine solche differentielle Entwicklung könnte sich darauf konzentrieren, spezifisch jene Fortschritte zu fördern, die hilfreich für die Gesellschaft sind. So entstünde eine erstrebenswerte Sequenz von Technologien.
Wie könnte das in der Praxis aussehen?
Das gibt es schon in der Forschungsfinanzierung. Die Förderung bestimmter Arbeiten beeinflusst die Geschwindigkeit der Entwicklung, etwa bei Medikamenten gegen Krebs, die man so schnell wie möglich haben will. Heute ist das Ganze aber nicht gesteuert - cool wirkende Technologie wird gefördert, ohne viel strategische Planung. Das könnte man ändern. Für die jeweiligen Wissenschaftler ist der wichtigste Motivationsfaktor für ihre harte Arbeit oft, dass sie einen Unterschied machen wollen. Es macht Sinn, innezuhalten und nachzudenken, was nützlich ist.
Die Forscher sollen die Verantwortung übernehmen?
Es gibt mehr als genug Verantwortung, die verteilt werden muss. Auch Organisationen, Regulatoren, Regierungen und andere Stakeholder könnten sich mehr darum kümmern, die Forschungsarbeiten zu fördern, die existenzielle Risiken für die Menschheit minimieren.
Die technischen Entwicklungen nutzen heute oft großen Konzernen. Ist das ein Problem?
Heute ist es meist die letzte Phase technische Entwicklungen - die Kommerzialisierung - die vom Privatsektor übernommen wird. Grundlagenforschung wird oft von der öffentlichen Hand finanziert. Die Entwicklung des wissenschaftlich-technischen Fortschritts wird aber von niemandem gesteuert. Es gibt keinen Masterplan, sondern eine Vielzahl unterschiedlicher Akteure, die verschiedene Interessen verfolgen.
Löst Technologie unsere Probleme?
Wir sehen Wissenschaft und Technik heute meist als grundsätzlich gut. Gegen diese Idee gibt es sehr wenig Widerstand. Es heißt, je mehr wir in diesen Pool schütten, desto besser ist das für die Gesellschaft. Was oft übersehen wird ist, dass es Entwicklungen geben kann, die negative Auswirkungen auf die Gesellschaft haben können.
Die Logik des Marktes ist tief verankert im Konzept der Effizienzsteigerung, die das Ziel vieler technischer Entwicklungen ist. Werden in Zukunft alle vom Fortschritt profitieren?
Die Verteilungsfrage ist schon heute wichtig und wird auch heftig diskutiert. Das wird auch in Zukunft eine Rolle spielen. Ich konzentriere meine Aufmerksamkeit aber auf Themen, die die Dinge für alle zum Positiven ändern. Es geht mir nicht darum, wie man den Kuchen am besten aufteilt, sondern darum sicherzustellen, dass es auch in Zukunft noch einen Kuchen geben wird.