Mit intelligenten Maschinen gegen Ausländerfeindlichkeit
Oliviero Stock entwickelt Software, die Menschen beeinflusst. Das funktioniert nicht durch Argumente, sondern indem an die Emotionen appelliert wird. Derzeit funktioniert das beispielsweise, indem vorhandene Texte so modifiziert werden, dass sie eine bestimmte Botschaft vermitteln, etwa durch das Einfügen oder Austauschen von Adjektiven. In Zukunft sollen intelligente Algorithmen allerdings in der Lage sein, durch Humor und Kreativität, selbsttätig Agenden zu verfolgen. Die Werbeindustrie und die Politik könnten versuchen, mit derartiger Software die Menschen zielgerichtet zu manipulieren. Der Schutz vor automatisierter Einflussnahme könnte ebenfalls durch intelligente Software erfolgen. Oliviero Stock, der derzeit am Center for Information and Communication Technology in Trento forscht, ist derzeit für die neunte ACM Konferenz für Empfehlungssysteme, die von der TU Wien ausgerichtet wird, in der österreichischen Hauptstadt. Die futurezone hat ihn interviewt.
Hat Sie je eine Maschine zum Lachen gebracht?
Wirklich laut gelacht habe ich wegen einer Maschine nur, wenn es um unerwartetes Verhalten aufgrund eines Fehlers geht, aber das zählt nicht. Gelächelt habe ich aber schon aufgrund von Software, die gewollt humorvoll war. Vor Jahren gab es ein Programm, das sich über Abkürzungen lustig gemacht hat, es hieß “Hahacronym”. Die Software hat etwa aus “MIT, dem Massachusetts Institute of Technology”, “Mythical Institute of Theology” gemacht. Bei solchen Beispielen hab ich geschmunzelt
Können Maschinen Eigenschaften wie Humor oder Kreativität, die üblicherweise mit menschlicher Intelligenz in Verbindung gebracht werden, entwickeln?
Der weltbeste Schachspieler ist eine Maschine. Schach mag zwar nur einen eng begrenzten Fähigkeitenkatalog verlangen, aber ich glaube, es verlangt eine gewisse Intelligenz, nicht nur rohe Rechenkraft. Ich habe früher Schachspiele zwischen menschlichen Profis und dem Computerschach Weltmeister organisiert. Die Kommentatoren und die menschlichen Spieler waren sich stets einig, dass sie am meisten von der Kreativität des Spiels der Maschinen beeindruckt waren.
Sie arbeiten aber auf einem ganz anderen Gebiet, nämlich mit Sprache, die eher im künstlerischen Bereich angesiedelt ist. Können Maschinen auch hier reüssieren?
Ich glaube, auf lange Sicht werden sich Maschinen genau wie Menschen verhalten können. Ob sie je so etwas wie Bewusstsein erlangen werden, kann ich nicht sagen.
Ob eine Maschine Bewusstsein emuliert oder tatsächlich eines entwickelt, ist auch schwer zu sagen.
Genau. Wir haben in jüngerer Vergangenheit im Bereich der Computerlinguistik einen Umbruch erlebt. Bis vor 20 Jahren war das Ziel, dass Maschinen Sprache verstehen und die Forscher dabei Einblicke in die Prozesse im menschlichen Hirn erlangen, die mit Sprache zusammenhängen. Durch das Internet steht praktisch alles, was je geschrieben wurde, für maschinelle Analyse zur Verfügung. Aktuelle Systeme lernen durch Datenanalyse. Das war ein Paradigmenwechsel. In bestimmten, eng begrenzten lingusitischen Einsatzgebieten sind Maschinen heute dadurch schon fast so geschickt wie Menschen. In anderen Bereichen, etwa Rhetorik, hinken die Maschinen aber noch weit hinterher.
Das heißt der statistische Lernansatz hat Grenzen?
Ja, es gibt Dinge, die mit Lern-Algorithmen schwer zu erreichen sind. Diese Art von Lernen hat mit menschlicher Sprachacquisition nichts zu tun. Hier wird es in Zukunft eine Mischung der beiden Ansätze geben, eine Kombination aus Ansätzen, die regelbasiert bzw. korpusbasiert sind (d.h. Lernen aus bestehenden Texten). Das Wissen über menschliche Sprachverarbeitung wird wieder wichtiger.
Wenn kein Bewusstsein, werden Maschinen so etwas wie Persönlichkeit entwickeln?
Ja. Aber so weit sind wir noch nicht.
Müssen wir uns bald vor einer Armee aus Werbe-Bots fürchten, die uns im Internet jagen und versuchen, mir Dinge schmackhaft zu machen, indem sie an unsere Emotionen appellieren?
Das ist eine Sorge, die es gibt. Es gibt Platz für Missbrauch, wie überall. Wir konzentrieren uns darauf, die Technologie voranzutreiben. Jedenfalls könnten solche Systeme ja auch für soziale Anliegen verwendet werden, etwa um die Einstellung der Bevölkerung zu Ausländern zu ändern oder einen gesunden Lebensstil schmackhaft zu machen.
Das ist ethisch schwierig.
Ja, deshalb beschäftigen meine Kollegen und ich uns seit dem Beginn unserer Arbeit mit ethischen Fragen. Es geht nicht nur darum, ob Dinge gut oder schlecht für die Gesellschaft sind, sondern auch darum, dass die Systeme ihre Entscheidungen selbst an das moralisch Annehmbare anpassen. Ein kluges System wird in Zukunft verstehen, was es tun darf und was nicht. In einigen Situationen ist es etwa akzeptabel, wenn ein persuasives System Menschen zu einer Handlung bewegt, die ihnen widerstrebt , etwa wenn ein Haus in Flammen steht und die Bewohner nicht rechtzeitig hinausgehen. Dann wäre selbst eine maschinelle Lüge vertretbar.
Trotzdem ist die maschinelle Manipulation von Menschen problematisch.
Ja, selbst bei einem guten Zweck bleibt die Frage, wer die Entscheidungen trifft. Kurzzeitig wird das wichtigste Thema sein, wer die Systeme kontrolliert - die Verantwortlichen müssen anständig sein. Die Fähigkeiten der Systeme werden sich aber verbessern und langfristig werden die Programme soziale Akteure sein, die in der Gesellschaft selbsttätig ihren Aufgaben nachgehen. Dazu müssen sie aber gut und böse voneinander unterscheiden können. Das wird passieren, ob wir es wollen oder nicht.
Kann das nicht ins Auge gehen?
Es gibt ein sehr geringes Risiko, dass die Maschinen zu Ungunsten der Menschen die Kontrolle übernehmen, aber das halte ich für unwahrscheinlich und von solcher Technologie sind wir noch sehr, sehr weit weg. Ich fürchte mich eher vor Menschen. Es gibt fast nichts, was Menschen sich nicht gegenseitig antun würden. Die Maschinen werden uns helfen, solche Auswüchse in Zaum zu halten.
Macht es für die Werbung einen Unterschied, ob sie von Mensch oder Maschine kreiert wurde?
Unseren Erhebungen zufolge sind Menschen sehr empfindlich, wenn es um Maschinen geht, die versuchen, sie zu beeinflussen. Wenn man sie ganz allgemein danach fragt, ohne eine bestimmte Art von Beeinflussung zu nennen, sagen sie fast immer, dass das inakzeptabel ist. Wenn man aber einen bestimmten Zweck nennt, finden sie solche Beeinflussung oft durchaus annehmbar (etwa, wenn es um Hilfe bei der Erreichung ihrer eigenen Ziele geht). Es ist bemerkenswert, dass Menschen selten mit der traditionellen, durch Menschen erzeugten Werbung ein Problem haben.
Kann man Menschen vor unerwünschten Beeinflussungsversuchen schützen?
Wir haben ein System entwickelt, das Werbungen auf den Arm nimmt, den Subvertizer. Außerdem arbeiten wir an Software, die Menschen vor Beeinflussung schützen sollen, indem sie sie erkennen. Dabei geht es nicht um Banner, die auf Nutzer zugeschnitten sind. Wir beschäftigen uns mit dem Wording von Texten. So erkennen wir Beeinflussungsversuche selbst in Zeitungsartikeln. Auch Journalisten versuchen ja, Einfluss zu nehmen, etwa durch die Wahl der Adjektive. Unser System soll das erkennen, den Nutzer warnen und sogar eine gesäuberte Version des Textes anbieten. So können etwa unerwünschte Beeinflussungsversuche bekämpft werden.
Die Möglichkeit, Werbeslogans automatisch zu erzeugen, wäre perfekt für die Werbeindustrie.
Die Werbeindustrie wird unter den ersten Branchen sein, die auf solche Systeme setzt.
Ist die Technologie heute schon im Einsatz?
Nein. Heute läuft alles noch über statische Banner.
Wann wird sich das ändern?
Ich glaube, dass Technologien, wie sie von uns entwickelt wurden, nicht mehr weit von einer Markteinführung entfernt sind. Vor allem werden damit Botschaften genau auf Personen und Situationen zugeschnitten werden. Das ist für die Werbeindustrie attraktiv.
Wären längerfristig auch Bots denkbar, die versuchen, Menschen im Gespräch zu überzeugen?
Wir entwickeln derzeit keine Bots. Wir beschäftigen uns mit Überzeugungsstrategien, die im Monolog funktionieren, in Form von Text. Es gibt Arbeiten zu Sprachverarbeitung in Dialogsystemen, aber das ist ein ganz anderes Feld mit eigenen Schwierigkeiten. Chatbots basieren heute auf Regeln, da ist noch viel Arbeit nötig. Die heutigen Systeme sind trivial. Wir werden in Zukunft aber interessantere Systeme zu Gesicht bekommen, die auf die zuvor angesprochene Kombination aus Regeln und lernfähigen Algorithmen setzen.
Wie schwer ist es, der Software ethische Grundsätze beizubringen?
Bei selbstfahrenden Autos wird seit kurzem über ethische Systeme diskutiert. Bei Überzeugungssoftware ist das schwieriger, weil zwei Komponenten bedacht werden müssen: die Handlung oder Einstellung, die Ziel der Beeinflussung ist; und der Charakter der Beeinflussung selbst.
Kann eine Maschine wirklich das Gute vom Bösen unterscheiden?
Wir untersuchen bei unserer Arbeit nicht, was gut oder böse ist, sondern was Menschen akzeptieren, auf Grund ihrer aktuellen moralischen Einschätzungen. Da gibt es individuelle Unterschiede.
Wo stehen wir bei diesem Thema?
Die heutige Forschung steht noch am Anfang. Die Überzeugungssysteme müssen subtiler werden, da ist noch einige Arbeit nötig, auch die Persönlichkeit muss berücksichtigt werden.
Sie haben auch Systeme gebastelt, die kreative Schlagzeilen im Stil der britischen Boulevardblätter erstellt. Muss ich mir einen neuen Job suchen?
In naher Zukunft werden die Systeme hauptsächlich Hilfen für Kreative sein. Wir können nämlich schon recht gute, kreative Ergebnisse erzielen, sind aber noch nicht gut darin, die Schlechten herauszufiltern. Maschinen werden Kreativen helfen, sie schneller und effektiver machen. Sie müssen sich also noch keinen anderen Job suchen, sondern werden vielleicht durch die Maschinen ein viel effektiverer Journalist werden. Sie können ihren maschinellen Partner ja sogar geheimhalten, wenn Sie wollen.
Sind Jobs in anderen Branchen durch intelligente Systeme in Gefahr?
Ich kenne die Debatte um einen möglichen Jobverlust durch intelligente Systeme. Ich stimme zu, es wird Jobs geben, die es nicht mehr geben wird, wie schon in der industriellen Revolution. Nur dass diesmal auch bestimmte intellektuelle Arbeiten betroffen sein werden. Aber wie damals wird Boykott keine gute Antwort sein. Die Gesellschaft sollte so klug sein, Wege zu finden, die Maschinen zur Schaffung einer ausbalancierten Gesellschaft einzusetzen. Die Struktur der Arbeit muss sich vielleicht ändern.
Frei nach Marx werden die Arbeiter von heute also Zeit für Poesie und Wein haben?
Ich habe keine spezifische Lösung. Aber das Problem muss ernst genommen und studiert werden. Moderne Theorien und Experimente werden hoffentlich zu einem guten Ergebnis führen. Falsch wäre jedenfalls, die Weiterentwicklung intelligenter Systeme zu begrenzen. Man kann diese Entwicklung nicht aufhalten. Die Menschheit muss neue Auffassungen der Gesellschaft ausarbeiten und damit experimentieren.