US-Regierungsbericht: KI könnte Menschheit auslöschen
Im Oktober 2022 - etwa einen Monat vor der Veröffentlichung von ChatGPT - hat das US-Außenministerium eine Risikobewertung zu Künstlicher Intelligenz durchführen lassen. Das Ergebnis: KI könnte Menschen künftig nicht nur den Job, sondern auch das Leben kosten.
Allgemeine Künstliche Intelligenz könnte Menschheit auslöschen
Der 284 Seiten starke Bericht wurde am Montag veröffentlicht und beschreibt einige "katastrophale Risiken" von allgemeiner Künstlicher Intelligenz, oder AGI. Diese hypothetische KI ist in der Lage, jede intellektuelle Fähigkeit zu verstehen bzw. zu erlernen. So ein System ist noch Zukunftsmusik, es könnte "Menschen aber in einem breiten Spektrum wirtschaftlicher und strategischer Bereiche übertreffen".
➤ Mehr lesen: ChatGPT-Macher warnt: KI könnte Menschheit auslöschen
Einige Szenarien "könnten zur Auslöschung der Menschheit" führen, wie der Bericht warnt, von dem auch eine Zusammenfassung gibt. "Die Entwicklung von AGI und von KI-Fähigkeiten, die an AGI heranreichen, würde katastrophale Risiken mit sich bringen, wie sie die Vereinigten Staaten noch nie erlebt haben", heißt es in dem Bericht.
Biowaffen, Cyberattacken und Fake News
Das Unternehmen Gladstone, das mit der Berichterstellung beauftragt wurde, führte Umfragen mit 200 Interessensvertreten der Branche durch, darunter auch Mitarbeiter von OpenAI, Google DeepMind, Anthropic und Meta. Dabei kamen sie zum Entschluss, dass KI ein hohes Risiko habe, bei der Entwicklung von Biowaffen, massiven Cyberattacken, Desinformationskampagnen und autonomen Robotern eingesetzt zu werden.
Der Bericht wies auch auf ein hohes Risiko eines Kontrollverlusts hin. Sollte dies geschehen, könnte es zu "Massenunfällen" oder "globaler Destabilisierung" führen, so der Bericht.
Auch andere Experten warnen
Es ist nicht das erste Mal, dass Expert*innen vor apokalyptischen Szenarien durch KI warnen. KI-Pionier Geoffrey E. Hinton verließ etwa seinen Job bei Google und warnt seitdem davor, dass Sprach-KI wie ChatGPT das Internet mit Falschinformationen überfluten könnten.
➤ Mehr lesen: KI-Pionier Geoffrey Hinton verlässt Google und warnt vor ChatGPT & Co
Ein Team der Universität Stanford zeigte etwa in einer Studie, dass GPT-4, das Sprachmodell hinter ChatGPT, nicht davor zurückschreckt, einen nuklearen Krieg anzuzetteln. Das Thema ist brisant, denn erst Anfang Jänner löschte OpenAI still und heimlich eine Passage aus seinen Allgemeinen Betriebsbestimmungen, die eine Nutzung für "Militär und Kriegsführung" untersagte. Weniger als eine Woche später gab das Unternehmen bekannt, dass es mit dem US-Militär an einer Reihe von Projekten arbeite, darunter auch die Sicherstellung von Cybersecurity, wie Bloomberg berichtete.
➤ Mehr lesen: GPT-4 schreckt nicht zurück, einen nuklearen Krieg anzuzetteln
Kommentare