Elon Musk will KI-Forschung stoppen: Das steckt dahinter
Künstliche Intelligenz (KI) hat sich in den letzten Monaten enorm weiterentwickelt. Textgeneratoren wie ChatGPT können immer mehr Fragen beantworten und sogar programmieren. KI-Bilder von Midjourney & Co sehen mittlerweile täuschend echt aus. Persönlichkeiten wie der Papst oder Politiker*innen können in Situationen dargestellt werden, die nie passiert sind, wie etwa eingehüllt in einen weißen Steppmantel.
Nun haben sich hochrangige Tech-Expert*innen, darunter auch Elon Musk, in einem offenen Brief dafür ausgesprochen, die Entwicklung von KI vorübergehend zu stoppen, bis es Ideen gibt, wie man diese am besten regulieren kann. Doch was steckt genau dahinter und wieso hat ausgerechnet Elon Musk Angst vor KI? Die futurezone beantwortet die wichtigsten Fragen dazu.
Was steht genau in dem offenen Brief drin?
Es wird ein Stopp bei der KI-Entwicklung für alle gefordert, deren KI-Werkzeuge so mächtig wie ChatGPT sind. In einer 6-monatigen „Denkpause“ soll geklärt werden, welche Sicherheitsstandards für die Technologie geschaffen werden müssen.
Wer hat den Brief unterzeichnet?
Tesla-CEO Elon Musk sowie Apple-Mitgründer Steve Wozniak haben den Brief, der vom gemeinnützigen Institut „Future of Life“ initiiert wurde, unterschrieben, ebenso wie zahlreiche Software-Entwickler, die an KI arbeiten. Allerdings haben nicht alle Forscher unterschrieben. Der Chef-Entwickler bei Facebooks-Mutterkonzern Meta, Yann LeCun, hält von dem Brief nichts. Auch weitere, hochrangige Software- und KI-Experten äußerten sich kritisch. Insgesamt haben den Brief bisher rund 1400 Menschen unterzeichnet. Eine Reaktion seitens der US-Politik oder seitens OpenAI, der Firma, die hinter ChatGPT steckt, gibt es bislang nicht.
Warum hat ausgerechnet Elon Musk Angst vor KI?
Der Tesla-Gründer hat sich bereits im Jahr 2014 erstmals dazu öffentlich geäußert, dass man mit KI sehr vorsichtig sein müsse. Er schätzte diese damals bereits als „gefährlicher als Atomwaffen“ ein. Musk fürchtet vor allem eine „Superintelligenz“ und spricht sich von Beginn an für eine Regulierung der Technologie aus.
Was könnte Musk mit seiner Unterschrift noch bezwecken wollen?
Musk hat die KI-Non-Profit-Organisation OpenAI, die hinter dem Textwerkzeug ChatGPT steckt, mitbegründet und mitfinanziert, als sie noch eine gemeinnützige Organisation war. Er ist allerdings später ausgestiegen, als Microsoft sein Investment bekannt gegeben hatte und die Struktur von OpenAI in Richtung Gewinnorientierung umgewandelt wurde. Er kritisierte zudem, dass vom „Open“ in „OpenAI“ nichts mehr übrig geblieben und der Quellcode geschlossen worden sei.
Denkbar wäre daher, dass hinter seiner Unterschrift auch strategische Gründe stecken. Musk könnte OpenAI etwa vorläufig ausbremsen wollen. Laut einem Bericht der „Wirtschaftswoche“ soll Musk nämlich den KI-Experten Igor Babuschkin von der TU Dortmund, der in der Vergangenheit sowohl für OpenAI als auch für DeepMind von Google gearbeitet hatte, angeheuert haben, um die „besten KI-Expert*innen“ zu versammeln, damit diese mit „vielen Freiheiten“ an KI-Projekten arbeiten können. Laut dem Bericht soll Musk dabei genau das Gegenteil anstreben von dem, was jetzt im offenen Brief gefordert wird: Weniger Regulierung und mehr Offenheit bei der Entwicklung.
Hat Musk etwas mit dem „Future of Life“-Institut zu tun?
Musk ist als offizieller Berater dieses Instituts gelistet. Das „Future of Life“-Institut ist außerdem bekannt als Bindeglied für die sogenannte "Longtermism"-Bewegung. Longtermism ist eine ethische Haltung, die Verbesserungen der fernen Zukunft als moralische Priorität betrachtet, und reale Bedrohungen, wie z.B. die Klimakrise, ignoriert bzw. als nicht so dringlich ansieht.
Laut einem Spiegel-Bericht wird diese Denkschule vor allem von Silicon-Valley-Milliardären propagiert und finanziert, wie etwa von Facebook-Mitgründer Dustin Moskovitz oder dem Krypto-Finanzier Sam Bankman-Fried. Viele Namen, die den offenen Brief unterzeichnet haben, können dieser Denkschule zugeordnet werden. Das "Future of Life"-Institut taucht im Spiegel-Bericht ebenfalls auf. Die offizielle Mission des 2015 gegründeten Instituts ist es laut eigenen Angaben "transformative Technologie in Richtung des Nutzens für das Leben und weg von extremen Großrisiken zu lenken".
Was sagen andere KI-Experten zum Brief?
Laut dem Computer- und KI-Experten Arvind Narayanan von der Princeton Universität heizt der offene Brief den Hype rund um KI weiter an. Er sieht darin also lediglich einen riesigen PR-Gag. „Dadurch wird es auch schwieriger, die realen, bereits existierenden Probleme von KI zu adressieren. Ich denke, dass vor allem die Unternehmen einen Nutzen davon haben würden, wenn sie jetzt reguliert werden und nicht die Gesellschaft“, schreibt Narayanan.
Welche Gefahren sind bei KI-Generatoren die dringlichsten?
Mit KI-Systemen können leicht gefälschte Nachrichten generiert werden, die im Anschluss unkontrolliert verbreitet werden. Dieser Punkt ist im offenen Brief als Erster aufgelistet. Narayanan sieht nicht in der Erstellung von gefälschten Nachrichten allerdings das größte Problem, sondern in der anschließenden Verbreitung über andere Kanäle. Zudem angesprochen wird im Brief die Gefahr, dass bald unzählige Menschen aufgrund von KI ihre Jobs verlieren könnten. Laut einer jüngsten Schätzung von Goldman Sachs könnten bis zu 300 Millionen Jobs in Europa und den USA obsolet werden. Allerdings droht diese Gefahr eher mittelfristig bzw. viele Jobs werden nicht gänzlich verschwinden, sondern sich durch KI verändern.
Angesprochen werden in dem Brief auch noch nicht existierende Gefahren, die durch eine Unkontrollierbarkeit des Systems entstehen könnten, die in Zukunft als möglich erscheint. Naranayan kritisiert, dass echte existierende Gefahren dadurch unter den Tisch gekehrt werden. Das sind aus seiner Sicht etwa Risiken bezüglich Cybersecurity. Die Tools könnten etwa verwendet werden, um personenbezogene Daten oder Firmeninterna zu stehlen. Neben den Sicherheitsrisiken besteht außerdem das Problem, dass Forscher*innen sich aktuell nicht darauf verlassen können, dass sie KI-Modelle ausreichend untersuchen können. Um verlässliche Ergebnisse zu erlangen, braucht es Zeit. Wenn aber alle paar Monate eine neue Version veröffentlicht und die alte Version aufgegeben wird, lassen sich die KI-Entwicklungen nicht begleitend wissenschaftlich untersuchen.
Wäre eine Regulierung von KI überhaupt möglich?
Ja, aber nur regionenübergreifend und noch weiß keiner so genau, wie eine Regulierung von generativer KI genau aussehen könnte. Es ist ein normaler Prozess, dass zuerst die Technologie existiert und erst dann die Regulierung folgt. Eine Regulierung zum jetzigen Zeitpunkt würde vor allem Klarheit für die Unternehmen schaffen, die in KI investieren wollen, um nicht im Nachhinein „überrumpelt“ zu werden, wie es etwa bei der Datenschutzgrundverordnung (DSGVO) geschehen ist.
In der EU gibt es etwa den AI Act, der schon länger geplant ist. Als dieser erstmals vor ein paar Jahren entwickelt wurde, gab es allerdings noch keine generative KI. Deshalb kommt diese Entwicklung aktuell nicht im EU-Entwurf vor. Es wird derzeit allerdings darüber debattiert, wie generative KI in der EU reguliert werden soll.