Symbolbild KI

Künstliche Intelligenz bietet viele Möglichkeiten, Expert*innen sehen aber auch Gefahren

© Getty Images / imaginima/iStockphoto

Science

MIT-Professor warnt: KI bedroht unser aller Leben

Der Physiker und KI-Forscher Max Tegmark vom Massachusetts Inistute of Technology (MIT), gilt als Mahner hinsichtlich der Risiken, die Künstliche Intelligenz mit sich bringen. So hat er den offenen Brief organisiert, den unter anderem Elon Musk unterzeichnete und in dem ein Moratorium für die Weiterentwicklung von ChatGPT und Co. gefordert wird.  

In einem Gespräch mit dem Guardian wiederholt er nun erneut seine Bedenken. “KI verspricht viele unglaubliche Vorteile, aber eine rücksichtslose und unkontrollierte Entwicklung immer leistungsfähigerer Systeme ohne Aufsicht bedroht unsere Wirtschaft, unsere Gesellschaft und unser Leben”, so Tegmark. Regulierung sei “kritisch” für eine sichere Innovation, so der MIT-Professor.

Paper von 23 Wissenschaftler*innen

Er ist nicht der einzige Vertreter des Fachs, die vor den Risiken von KI warnen. Erst am Dienstag wurde ein gemeinsames Paper von 23 Wissenschaftler*innen veröffentlicht, in dem sie Empfehlungen für den Umgang mit Künstlicher Intelligenz geben. 

In dem Text fordern sie, dass Regierungen und Unternehmen ein Drittel der Ressourcen der KI-Forschung für die sichere und ethische Nutzung der Systeme aufwenden. Außerdem sollen unabhängige Prüfer Zugang zu KI-Laboren bekommen. Es sollen Lizenzmodelle für das Training der Systeme entstehen. Wenn gefährliche Tendenzen in den KI-Modellen gefunden werden, sollen Unternehmen bestimmte Sicherheitsmaßnahme ergreifen müssen. Auch wird gefordert, dass Tech-Unternehmen für vorhersehbare und somit vermeidbare Schäden ihre KI-Modelle haftbar gemacht werden können. 

➤ Mehr lesen: Elon Musk will KI-Forschung stoppen: Das steckt dahinter

Namhafte Autor*innen

Zu den Autor*innen zählen auch die KI-Pioniere Geoffrey Hinton und Yoshua Bengio, die für ihre Forschung zum Thema neuronale Netzwerke und Deep Learning auch mit dem Turing Preis ausgezeichnet wurden. Auch Nobelpreisträger Daniel Kahneman und der renommierte chinesische Informativer Andrew Yao haben sich dem Schreiben angeschlossen.

Die Unterzeichnerin und Juristin Gillian Hadfield erklärt gegenüber dem Guardian, dass vor allem angesichts der rasanten Weiterentwicklungen auf diesem Feld gehandelt werden müsse. So gebe es Unternehmen, die innerhalb der nächsten 18 Monate Modelle mit 100 Mal mehr Rechenleistung als heutige entwickeln würden. „Niemand weiß, wie mächtig sie sein werden. Und es gibt im Grunde keine Vorschriften darüber, was sie mit diesen Modellen machen können.“

Hintergrund

Die Gefahren, die die Wissenschaftler*innen sehen, haben nichts damit zu tun, dass KI ein Eigenleben entwickelt und die Menschheit auslöscht (siehe “Terminator”). Die Warnungen beziehen sich eher darauf, was Menschen selbst mit mächtigen KI-Modellen anrichten könnten. 

➤ Mehr lesen: KI-Pionier findet Zukunft "beängstigend"

So warnte etwa Hinton in der Vergangenheit vor der Masse an Fake News, die mithilfe von Large-Language-Modellen, wie es hinter ChatGPT steckt, vollautomatisch erstellt werden könnte. Auch könnte Künstliche Intelligenz für Cybercrime eingesetzt werden. Auf der anderen Seite wird auch befürchtet, dass autoritäre Staaten die Systeme nutzen, um die Bevölkerung zu unterdrücken.

Regulierungen

Zum Teil haben staatliche Einrichtungen bereits begonnen, an Regulierungen für KI zu arbeiten. In der EU wurde diesbezüglich etwa der AI Act auf den Weg gebracht. In Österreich wurde eine Servicestelle als Vorläufer für eine geplante Behörde für künstliche Intelligenz (KI) geschaffen

➤ Mehr lesen: Was es mit Turskys geplanter KI-Behörde auf sich hat

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare