Killer-Roboter müssen ohne Teslas Autopilot auskommen

Killer-Roboter müssen ohne Teslas Autopilot auskommen

© apa

Künstliche Intelligenz

Experten warnen vor dem Aufstand der Maschinen

Das Future of Life Institute hat am Sonntag einen offenen Brief gestartet, der für bessere Sicherheitsmaßnahmen und mehr Koordination bei der Erforschung künstlicher Intelligenz wirbt, wie cnet berichtet. Die Urheber fürchten, dass die Menschheit ansonsten die Kontrolle über immer intelligenter werdenden Maschinen verlieren könnte. Der Brief wurde schon von einer Vielzahl von Experten auf dem Gebiet unterzeichnet, unter anderem von Professoren praktisch jeder US-Eliteuniversität.

Die Suche nach künstlicher Intelligenz verspreche praktisch unbegrenzte Vorteile für die Menschen, berge aber eben auch Gefahren, heißt es in dem Brief. Kurzfristig sorgt sich das Future of Life Institut hauptsächlich um intelligente Waffensysteme und selbstfahrende Autos, längerfristig werden aber auch Maschinen, die intelligenter sind als Menschen und bislang eher ins Reich der Science Fiction verbannt wurden, als Gefahr gesehen.

Singularität

Eine Maschine mit übermenschlicher Intelligenz könnte sich selbst kontinuierlich verbessern. Der Beginn einer solchen exponentiellen Entwicklung künstlicher Intelligenz wird oft als Singularität bezeichnet. Ob es dazu jemals kommen wird, ist ungeklärt, da sich Forscher nicht darüber einig sind, ob Maschinen überhaupt Intelligenz im menschlichen Sinn entwickeln können. Vorsicht bei der Erforschung scheint aber in jedem Fall angebracht, da die potenziellen Auswirkungen enorme Tragweite haben.

Die Debatte hat vor kurzem neuen Aufwind bekommen, weil Tesla-Boss Elon Musk die Forschung auf dem Gebiet der künstlichen Intelligenz als "Heraufbeschwören eines Dämons" und "gefährlicher als Kernwaffen" bezeichnet hat. Auch Stephen Hawking hat schon vor hyperintelligenten Maschinen gewarnt. Sowohl Hawking als auch Musk haben den Brief ebenfalls schon unterschrieben.

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare