Kickstarter wirft KI-Porno-Gruppe raus
Die Gruppe hinter der künstlichen Intelligenz "Unstable Diffusion" versucht personalisierte KI-Pornos zu monetarisieren. Auf Kickstarter sammelte sie knapp 53.000 Euro von mehr als 800 Unterstützer*innen ein. Das ist mehr als das Doppelte, das die Gruppe ursprünglich sammeln wollte.
KI ist ein neues, heißes Thema
Von dem Geld dürfte "Unstable Diffusion" allerdings nichts sehen. Kickstarter stellte das Projekt ein, in einem Blogpost äußerte sich CEO Everette Taylor zu dem Thema. Darin spricht Taylor das Thema Datenschutz an, das im Umgang mit KI noch nicht vollständig geklärt ist.
Dabei stellt sich vor allem die Frage, welche Daten für das Training der KI herangezogen wurden und ob die Creator*innen einverstanden sind, dass mit ihren Werken künstliche Intelligenzen trainiert werden.
Außerdem sollen Projekte nicht eine bestimmte Gruppe ausbeuten oder ihnen Schaden zufügen. "Diese Technologie ist wirklich neu und wir haben nicht alle Antworten. Die Entscheidungen, die wir jetzt treffen, sind möglicherweise nicht die, die wir in Zukunft treffen", gibt Taylor zu bedenken.
Mehrere Künstler*innen kritisierte Kickstarter für die "Unstable Diffusion"-Kampagne.
Sollte eine Software Pornos generieren?
Daneben stellt sich außerdem die ethische Frage, ob künstliche Intelligenz für die Erstellung pornografische Inhalte genutzt werden sollte.
Die KI "Stable Diffusion" wurde etwa mit 2,3 Milliarden Bildern trainiert und kann aus Text-Eingaben realistische Bilder erzeugen. Da der Datensatz jedoch nur 2,9 Prozent an pornografischem Material enthält, sind die Ergebnisse in diesem Bereich eher ernüchternd.
Hier kommt Unstable Diffusion ins Spiel. Die künstliche Intelligenz wurde mit pornografischen Datensätzen entwickelt, wodurch auch die generierten Bilder deutlich schlüpfriger werden. Laut eigenen Angaben der Gruppe kann das Modell so "besser mit der menschlichen Anatomie umgehen" und "Konzepte wie LGBTQ, Rasse und Gender besser darstellen".
Kritik an sexy KI-Bilder
Es ist zudem nicht das erste Mal, dass eine KI wegen zu starker Sexualisierung in der Kritik steht. Die App Lensa AI erstellt etwa künstlerische Avatare aus Bildern, die man ihr vorher zur Verfügung gestellt hat. Dabei werden besonders Frauen oft sexualisiert dargestellt - und das, obwohl man gar keine obszönen Bilder hochgeladen hat.