Die betroffenen Schülerinnen waren geschockt.

Die betroffenen Schülerinnen waren geschockt.

© GettyImages

Digital Life

KI-Nacktfotos von Mitschülerinnen erstellt: Polizei ermittelt

In einer Oberschule im US-Bundesstaat New Jersey wurden vermeintliche Nacktbilder von Mitschülerinnen in Gruppenchats geteilt. Die Betroffenen waren laut Wall Street Journal geschockt. Nicht nur, weil es eine Verletzung der Privatsphäre war, sondern weil die Bilder nicht echt waren.

Mehrere Mitschüler sollen zum Erstellen der Nacktbilder ein Online-Tool verwendet haben, das auf Künstlicher Intelligenz basiert. Solche Tools erlauben es, entweder komplett neue Bilder durch Texteingaben zu erstellen oder bestehende Bilder zu verändern. Fehlende rechtliche Grundlagen im Zusammenhang mit Künstlicher Intelligenz machen es allerdings schwer, die Urheber zu bestrafen.

Mehr lesen: Dürfen KI-Generatoren meine Bilder zum Trainieren verwenden?

Fall von digitalem Mobbing

Die Polizei ermittelt und ein Senator hat die Staatsanwaltschaft gebeten, den Fall zu untersuchen. Der Vorfall ereignete sich bereits Mitte Oktober, als sich mehrere männliche Schüler auffällig verhielten. Mindestens ein Schüler hatte eine KI-gestützte Website genutzt, um aus Onlinefotos mehrerer seiner Mitschülerinnen pornografische Bilder zu erstellen und diese dann in Gruppenchats mit anderen Jungen zu teilen. Die Schuladministration informierte daraufhin die Eltern der Schülerinnen und forderte die Schüler auf, die Bilder zu löschen.

Digitales Mobbing ist an US-Schule weit verbreitet. Während Menschen schon seit Jahren mit Photoshop und ähnlicher Software an Bildern manipulieren konnten, ist es mit den neuen KI-Tools um einiges leichter, komplett gefälschte Fotos zu produzieren. Bildgeneratoren von großen Unternehmen wie Dall-E von OpenAI oder Firefly von Adobe erlauben es Nutzer*innen normalerweise nicht, pornografische Inhalte zu produzieren. Kleinere Anbieter scheuen aber nicht davor, explizit mit Tools zu werben, die Gesichter austauschen und auch "Kleider entfernen" können.

Mehr lesen: Lensa AI macht aus mir eine "Wichsvorlage"

Die meisten Fake-Bilder sind pornografisch

Laut dem Bilderkennungsnehmen Sensity AI sind mehr als 90 Prozent aller mithilfe von KI gefälschter Bilder pornografische Abbildungen. Gefälschte sexuelle Bilder von echten Menschen sind so neu, dass das Bundesrecht in den USA hinterherhinkt. Eine Handvoll Staaten, darunter Virginia, Kalifornien, Minnesota und New York, haben die Verbreitung gefälschter Pornos verboten oder den Opfern das Recht eingeräumt, die Urheber*innen vor einem Zivilgericht zu verklagen.

Die Biden-Administration forderte erst diese Woche, dass generative KI daran gehindert werden soll, Material über sexuellen Kindesmissbrauch oder "nicht einvernehmliche intime Bilder von realen Personen" zu produzieren. Erst im April wurde ein 22-Jähriger im Bundesstaat New York zu 6 Monaten Haft verurteilt, weil er gefälschte Bilder erstellt und veröffentlicht hat, auf denen Frauen aus seiner alten Schule abgebildet waren. Die Originalfotos wurden aufgenommen, als die Frauen in der Mittel- und Oberstufe waren.

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare