Metas KI-Modell darf jetzt auch für militärische Zwecke genutzt werden
Wie Meta am Montag mitteilte, dürfen US-Regierungsbehörden und deren Partnerorganisationen künftig Metas Llama-KI-Modelle für militärische Zwecke nutzen. Bisher hatte Meta das untersagt. Das Unternehmen begründet diese Entscheidung mit wirtschaftlichen und sicherheitspolitischen Überlegungen, wie die New York Times berichtet. Der Schritt soll aber auch dabei helfen, den technologischen Vorsprung der USA gegenüber anderen Nationen weiter auszubauen.
➤ Mehr lesen: KI gegen Mensch: Erster Dogfight in der Luft
In einem Blogbeitrag erklärte Metas Präsident für globale Angelegenheiten, Nick Clegg, dass man mit dem Schritt die USA und andere demokratische Staaten im globalen Rennen um die Vormachtstellung im KI-Bereich unterstützen wolle. „Meta möchte einen Beitrag leisten, um die Sicherheit, Stabilität und wirtschaftliche Prosperität Amerikas und auch seiner engsten Verbündeten zu unterstützen“, sagte er. Außerdem könnte dies ein Beitrag zur besseren Verfolgung von Terroristen sein.
Five Eyes und Rüstungsunternehmen
Zu den Nutznießern werden auch Rüstungsunternehmen wie Lockheed Martin und Booz Allen sowie die auf militärische Software spezialisierten Firmen Palantir und Anduril gehören. Außerdem will Meta die Technologie mit seinen Partnerländern aus dem „Five Eyes“-Bündnis teilen – dazu zählen Kanada, Großbritannien, Neuseeland und Australien.
Da die Llama-Modelle Open Source sind, dürfen sie von anderen Entwicklern, Unternehmen und Regierungen kopiert und verbreitet werden. Bisher hatte Meta in der „Richtlinie zur akzeptablen Nutzung“ einen militärischen Einsatz verboten. Dieser Abschnitt wurde nun angepasst.
Viele Kritiker
Meta muss wegen dieser Entscheidung sicher mit Gegenwind rechnen. Schon bisher herrschte im Silicon Valley Uneinigkeit, was den militärischen KI-Einsatz betrifft – ähnliche Vorstöße von Microsoft, Google und Amazon wurden sogar von Mitarbeitern dieser Tech-Unternehmen scharf kritisiert. Bei Meta kommt der Open-Source-Ansatz hinzu, der es erlaubt, den Code umfassend zu verändern – damit könnten die Llama-Modelle laut Kritikern sogar noch gefährlicher sein als jene Modelle, bei denen der Code geheim ist.
Kommentare