KI-Pionier findet Zukunft "beängstigend": Das steckt dahinter
Dieser Artikel ist älter als ein Jahr!
Geoffrey E. Hinton gilt als Computergenie und Pionier im Bereich des maschinellen Lernens. Doch jetzt hat der Informatiker seinen Arbeitgeber Google verlassen. Er reiht sich nun in die Liste jener Wissenschafter*innen ein, die vor potenziellen Gefahren von künstlicher Intelligenz (KI) warnen. Wäre er bei Google beschäftigt geblieben, hätten derartige Aussagen negative Konsequenzen für seinen Arbeitgeber gehabt, der mit Bard selbst einen ChatGPT-Konkurrenten entwickelt und veröffentlicht hat.
Fake News und Cybercrime werden uns überfluten
Alle Argumente, die Hinton aufzählt, hat man bereits gehört. Er glaubt etwa, dass Cyberkriminalität durch die Automatisierung von Computern auf ein neues Level gehoben wird. „Es ist schwer vorstellbar, wie man Kriminelle davon abhalten können wird, KI für böse Dinge zu missbrauchen“, sagt er der New York Times. Er fürchtet auch, dass die Menschheit in Rekordgeschwindigkeit mit KI-generierten Fake News konfrontiert wird: „Chatsysteme (wie ChatGPT oder Bard) werden das Internet mit Falschinformationen überfluten und die Menschen sind nicht in der Lage, zu unterscheiden, was wahr oder was falsch ist.“
Seine Worte haben Gewicht. „Grundsätzlich, wenn Leute vor etwas warnen, die sich lange damit beschäftigen, muss man es ernst nehmen“, sagt Stefan Engl vom Verein AI Austria im Gespräch mit der futurezone. „Es ist seit Jahren bekannt, dass viel Geld in die Entwicklung von KI-Systemen fließt, aber im Vergleich dazu viel zu wenig Geld in die Erforschung der Auswirkungen und der Sicherheit dieser Systeme“, erklärt Engl, der mit Deep Opinion selbst ein KI-Start-up hat. „Hinton verdeutlicht, dass es hier ein Ungleichgewicht gibt.“ Auch der auf KI spezialisierte Digitalberater Jan Poczynek sagt zur futurezone: „Hinton ist Wissenschafter mit Leib und Seele. Der hat keine versteckten Agenden, wenn er solche Warnungen ausspricht.“
Zur Person
Geoffrey Hinton ist ein 75-jähriger Pionier für künstliche Intelligenz (KI). Der Informatiker wurde 2018 mit dem Turing Award für Grundlagenforschung im Bereich Maschinenlernen ausgezeichnet. Zuletzt arbeitete er ein Jahrzehnt lang bei Google, bevor er kündigte.
Firmenprofite statt Gemeinwohl im Fokus
Aus der Sicht von Poczynek ist es ein Problem, dass „große KI-Betreiber aus den USA nicht das Gemeinwohl der Gesellschaft in den Fokus stellen, sondern stets das Augenmerk auf Profitmaximierung richten.“ Das hätte man bereits früher an Beispielen wie Instagram gesehen, dessen Konzern Meta die Werbeprofite über das Wohl von Jugendlichen gestellt und in Kauf genommen hatte, dass es den Teenagern schlecht gehe, so Poczynek. Dasselbe würde nun auch mit KI passieren, so der Co-Gründer von Nowevolve.
„Menschen werden nicht in der Lage sein, gefälschte KI-Bilder zu erkennen, wenn nicht bald durch Regulierungen oder durch freiwillige Selbstverpflichtungen von Unternehmen gegengesteuert wird“, so der Digitalexperte. So könnte man bei KI-Bildern relativ einfach und schnell sogenannte „Watermarks“ einführen, damit jedes KI-generierte Bild klar gekennzeichnet wird und als solches erkannt und von Menschen richtig eingeordnet werden kann.
Es traut niemand den Regierungen eine rasche Regulierung zu
Engl hofft ebenfalls auf Regulierung, denkt aber, dass Menschen so digital kompetent sein werden, um Fake News zu unterscheiden. „Man weiß nie genau, was einzelne Akteur*innen mit ihren KI-Systemen tun. Deshalb muss man schon versuchen, diese in Zaum zu halten, und zwar möglichst international. Leider hinkt die Geschwindigkeit der Legislative oft hinten nach. Regierungen können mit der technologischen Geschwindigkeit oft nicht mitkommen. Da braucht es noch mehr Aufschrei in der Gesellschaft“, sagt Engl. „Wir haben schon seit vielen Jahren ein Problem, dass die Regulierung von Technologie nicht Schritt halten kann mit dem, wie schnell sich Technologie entwickelt“, sagt auch Poczynek. „Das hat man bei Facebook gesehen.“
Auch der KI-Pionier Hinton glaubt nicht, dass man eine globale Regulierung der Systeme rechtzeitig hinkriegen wird. Hinton verweist zudem auf die Gefahr, dass KI in kürzester Zeit Menschen in sehr vielen Jobs ersetzen könnte, ohne dass wir darauf vorbereitet sind. „Es wird kurzfristig eine grobe Talfahrt geben, auf die man politisch und gesellschaftlich nicht vorbereitet ist“, erklärt auch Poczynek. So hat IBM vor Kurzem angekündigt, 8.000 Bürojobs durch KI ersetzen zu wollen.
Bei den Zukunftsprognosen verschätzt
Nicht nur hier sieht Hinton Probleme. Vielleicht in 30 bis 50 Jahren könne die KI teilweise intelligenter sein als die Menschheit, dachte er früher. Doch nun habe er gesehen, wie sich KI in nur 5 Jahren weiterentwickelt habe. „Es ist beängstigend“, wenn er sich vorstelle, wohin die Reise in den nächsten 5 Jahren gehen könnte. Wie KI in 5 Jahren aussehen wird, traut sich auch der KI-Experte von AI Austria nicht voraussagen. „Es gehen viele Entwicklungen sehr schnell und es ist schwierig, sich auszumalen, wie fähig Systeme in 5 Jahren sein werden“, so Engl.
Vergleich mit Atombomben
Der KI-Informatiker Hinton brachte im NYT-Interview auch einen Vergleich mit Atombomben. Er sei öfters gefragt worden, wie er an einer Technologie arbeiten könne, die potenziell gefährlich sei, sagte er. In der Vergangenheit habe er immer Robert Oppenheimer zitiert, der nach dem Bau der Atombombe gesagt hat: „Wenn man etwas sieht, das technologisch interessant ist, blickt man nach vorne und macht es einfach.“ Das, so Hinton, würde er jetzt nicht mehr sagen.
Engl findet den Vergleich mit der Atombombe durchaus gelungen. „Bei der Atomenergie ging es darum, zu erforschen, wie sicher diese betrieben werden kann, bevor sie als Energiequelle eingesetzt wurde. Atombomben wollten wir aber nie verwenden. So ähnlich ist das auch mit KI. Wir müssen die negativen Effekte ausreichend erforschen. Jede Technologie ist neutral und hat Potenzial in beide Richtungen. Es hängt davon ab, was wir daraus machen“, sagt Engl dazu.
Kommentare