Warum Maschinen keine Werte kennen
Dieser Artikel ist älter als ein Jahr!
Sarah Spiekermann forscht seit Jahren an der Wirtschaftsuniversität Wien, wo sie dem Institut für Wirtschaftsinformatik und Gesellschaft vorsteht, zu ethischen Themen rund um den digitalen Fortschritt. In ihrem neuen Buch „Digitale Ethik“ beschäftigt sie sich aber weniger mit der Moral, sondern mehr damit, wie man „Bio“ in die Informatik bringen kann.
futurezone: Wie entstand die Idee für ein Buch zum Wertesystem für das 21. Jahrhundert?
Sarah Spiekermann: Aus einer tiefen Traurigkeit darüber, dass unsere politischen Prozesse nicht mehr in der Lage sind, Dinge zu verändern. Ich möchte Veränderung herbeiführen und daher muss ich erst einmal erklären, was mit unserer digitalen Welt los ist, damit jeder mündig damit umgehen kann und begreift, dass darin nicht alles Gold ist, was glänzt. Gutes kann man nur herbeiführen, wenn man positiv denkt und Schlechtes entlarvt und meidet.
Sie warnen davor, dass wir gerade am Scheideweg stehen, ob die
Digitalisierung uns als Menschheit schadet oder nutzt. Warum besteht die Gefahr eines Rückschritts?
Im Berufsumfeld gibt es Indikatoren dafür, dass wir einen Rückschritt sehen. Das lässt sich etwa festmachen an der Zunahme von Krankheiten wie Depressionen. Durchautomatisierte und durchdigitalisierte Unternehmen bereiten keine Freude mehr beim Arbeiten. Wenn die menschliche Freiheit am Arbeitsplatz eingeschränkt wird, leidet darunter die Kreativität der Mitarbeiter. Wenn wir keine Freude mehr beim Arbeiten haben, ist der Scheideweg überschritten.
Entscheiden heutzutage nicht maschinelle Systeme bereits, wer überhaupt eine Arbeit bekommt?
Damit wird auch noch die Würde von Menschen untergraben, die sich bewerben und von einer künstlichen Intelligenz aussortiert werden. Auch Systeme machen Fehler und ich frage mich, worin da der Fortschritt bestehen soll. Doch das ist nicht der einzige Bereich, auch im Privaten stehen wir vor einem
Rückschritt.
Inwiefern?
Menschen sind immer mehr im Kommunikationsnetz gefangen. Meine Studierenden bekommen durchschnittlich 200 Textnachrichten am Tag und sind damit überfordert. Und es gibt Spielewelten, die so gestaltet sind, dass man da nicht mehr rauskommt. Man kann das natürlich auch anders machen und Spiele so gestalten, dass Leute wieder miteinander spielen wie bei Pokemon Go. Das stiftet Freude und fördert Gemeinschaft und Aktivität. Wir sollten uns beim Design von Technik darauf konzentrieren, dass fundamentale, menschliche Werte gefördert werden.
Was sind Werte eigentlich, wie lassen sich diese definieren?
Wir benutzen den Begriff permanent, aber niemand weiß genau, wo diese Werte eigentlich sind. Sie sind unsichtbare Phänomene, wie etwa Sympathie, Freundschaft oder Würde. Zwei Menschen im Raum teilen diese Werte, der sich ihnen durch Gefühle erschließt. Sie ist von Maschinen nicht messbar und erfassbar. Maschinen können nur erfassen, was sichtbar ist.
Können wir Maschinen überhaupt Werte beibringen?
Nein. Nehmen wir den Wert der Sympathie. Maschinen können per Gesichtserkennung sehen, dass wir lächeln und sich unsere Pupillen erweitern. Aber was sie nicht wissen ist, ob dieses Lächeln ehrlich und authentisch ist, oder ob jemand nur aus Höflichkeit lächelt oder weil er an den letzten Abend denkt. Die Welt ist für Maschinen nicht zugänglich. Maschinen können nichts anderes tun, als über große Datenmengen hinweg Wahrscheinlichkeiten zu errechnen und Muster zu erkennen. Das sind nichts mehr als Vermutungen. Nur der Mensch selbst kann diese Vermutungen als Wissen proklamieren. Häufig wird gesagt, dass die Maschine etwas weiß. Korrekt ist das aber nicht.
Was für eine Rolle können Maschinen dann in der Welt der Werte überhaupt einnehmen?
Man kann technische Voraussetzungen haben, die dafür sorgen, dass wir Menschen im Umgang mit Maschinen Freude empfinden, und dass damit Freundschaft gefördert wird. Ein Beispiel, wo dies bereits gelungen ist, sind etwa Emojis. Damit wurden Voraussetzungen geschaffen, um Textnachrichten zu ergänzen. Entwickler machen sich noch viel zu wenig Gedanken darüber, wie sie bewusst Voraussetzungen in Maschinen schaffen können, damit mehr menschliche Werte zum Tragen kommen. Das wäre sozusagen das „Bio in der Informatik“. Stattdessen sind sie damit beschäftigt, immer mehr Funktionalität zu schaffen.
„Bio in der Informatik“ ist also noch nicht angekommen?
Es gibt Beispiele, wie das Emoji, oder die Spam-Filter im E-Mail-Programm. Auch Privatsphäre-Einstellungen bei digitalen Diensten sind ein Fortschritt. Aber man müsste noch viel stärker daran arbeiten, technische Voraussetzungen für menschliche Werte zu schaffen. Innovationsteams sollen Werte bei der Entwicklung von Technik von Anfang an berücksichtigen. Das Produkt sollte dem Menschen dienen. Nicht der Mensch ist das Produkt.
Liegt das nicht häufig am Effizienz- und Profitgedanken?
Profit ist leider ein Wert. Aber wenn man Profit und Effizienz ins Zentrum stellt, kommt etwas völlig anderes heraus, als wenn man Freude oder Sympathie ins Zentrum stellt. Wir müssen weg von diesem Effizienzgedanken. Das bringt der Welt mehr Rückschritt als Fortschritt..
Sind alle Werte gleich wichtig?
Unerlässlich sind zwei Werte: Freiheit und Wissen. Diese sind vielleicht die wichtigsten, fundamentalsten Werte ebenso wie die Gemeinschaft, weil ohne die, würden Menschen nicht leben können. Je eingeschränkter die Gesellschaft durch Technik wird, desto schwieriger ist es, dass sich der Mensch so verhalten kann, wie es der Situation bedarf.
Wie wirkt sich hier die zunehmende Automatisierung aus?
Es gibt Branchen, in denen Automatisierung Sinn macht, wo die Qualität der Produkte dadurch besser wird. Das ist etwa die Halbleiterproduktion. Aber bei Lebensmittel und Textilien verlieren die Produkte an Qualität wegen der Automatisierung. Das ist ein Rückschritt.
Was halten Sie von automatisierten Supermarktkassen?
Hier muss man sich fragen, was für eine Rolle ein Lebensmittelgeschäft haben soll. Inszeniert man den Einzelhandel als Event und schafft Raum, in dem Menschen sich treffen und austauschen, oder geht es um eine anonyme Abfertigung. Dann reichen Roboter an den Kassen. Man muss sich bei Ethik immer die Frage stellen, welche Werte man gezielt fördern will. Wenn man positive Emotionen schaffen möchte, ist die automatisierte Kassa nicht die Lösung.
Sie sagen also, dass eine Überpriorisierung von Gewinnen den Fokus auf ethische Werte untergräbt?
Richtig. Es sollte darum gehen, positive Visionen zu schaffen. Wir müssen daher all den Firmen ein Beinchen stellen, in dem wir es zum Volkssport machen, nur noch bei Unternehmen zu kaufen, die uns gut behandeln. Bei digitalen Überwachungsdiensten können wir den Stöpsel ziehen, in dem wir sie einfach nicht mehr benutzen. Da kann jeder mitmachen. Startpage statt
Google Search,
Threema und Signal statt Whatsapp, HERE WeGo statt Google oder Apple Maps, Dudle statt Doodle, etc..
Steht der Effizienzgedanke nicht bei zu vielen Firmen im Vordergrund? Wie könnte man das ändern?
Durch kritische, gute Führungspersönlichkeiten. Leute, die den Mut haben, das Richtige zu tun, anstatt dem Effizienzmainstream hinterherzulaufen und die die Größe haben und die Bereitschaft, sich mit ethischen Fragen auseinanderzusetzen und die bereit sind, mit der Gesellschaft zu teilen.
Zur Person und zu ihrem neuen Buch
Sarah Spiekermann-Hoff
Die Professorin ist Institutsvorstand am Institut für Wirtschaftsinformatik & Gesellschaft an der WU
Wien. Sie hat an der Humboldt Universität in Berlin promoviert und habilitiert und dort bis 2009 ein Forschungszentrum zur Internetökonomie geleitet.
Veröffentlichungen
Ihr neues Buch „Digitale Ethik – Eine Wertesystem für das 21. Jahrhundert“ erscheint am 1. April im Droemer Verlag (ISBN: 978-3-426-27736-2). Ihr erstes großes Lehrbuch mit dem Titel „Ethical IT Innovation“ erschien 2015 bei Taylor & Francis in New York.
Kommentare