Daten statt Politik: "Dann lieber unser System mit Vollpfosten"
Stefan Selke ist Professor für Soziologie und gesellschaftlichen Wandel an der Hochschule für Angewandte Wissenschaften Furtwangen. In seinem Buch "Lifelogging" (die futurezone berichtete) hat er sich kritisch mit der zunehmenden Tendenz der Datenerfassung beschäftigt, die durch Smartphones, Fitnesstracker und andere Technologien zunehmend auch das Privatleben der Menschen ins Visier nimmt. Er sieht hinter dieser Entwicklung eine Jagd nach Effizienz, durch die wichtige gesellschaftliche Errungenschaften unter Druck geraten.
Im Gespräch mit der futurezone spricht der deutsche Wissenschaftler über die Folgen für Politik, Gesellschaft und das Leben von Individuen.
futurezone: Was sind ihre wichtigsten Thesen zur Selbstvermessung?
Stefan Selke: Der aktuelle Boom ist nicht allein technisch zu erklären, etwa durch Miniaturisierung oder Preisverfall. Die digitale Selbstvermessung steht vielmehr in einer langen kulturhistorischen Tradition. Menschen haben ihr Leben schon immer protokolliert und auf diese Weise versucht, Ordnung herzustellen. Die Maxime hat sich aber gewandelt: hin zu einer Suche nach mehr Effizienz, angetrieben durch Krisenerfahrungen und die Notwendigkeit, sich in konkurrenzbedingten Märkten durchzusetzen. Das ist eine Entwicklung, die in den letzten Jahrzehnten forciert wurde - Stichwort neoliberaler Umbau der Gesellschaften. Menschen kommen immer schlechter mit der prinzipiellen Offenheit der Zukunft klar. Es gibt einen wachsenden Vertrauensverlust in Institutionen, gerade in politische. Die Menschen glauben, dass die großen kollektiven Krisen nicht mehr gelöst werden können. In dieser Situation werden Geräte attraktiv, die eine Maßstabsebene entstehen lassen, die uns bekannt ist: Der eigene Körper, die eigene Leistung. Das ist attraktiv und für viele hochwillkommen.
Aus gesellschaftswissenschaftlicher Perspektive führt die Durchdringung von immer mehr Lebensbereichen durch Datenerfassungsmechanismen zu einer Umorganisation des Sozialen. So entstehen neue Formen von Diskriminierung, die zwischen rein statistischer Diskriminierung und bekannten sozialen Diskriminierungen wie Sexismus oder Rassismus stehen. Diese neue Form der Diskriminierung nenne ich “rationale Diskriminierung”, weil Entscheidungen, Trennungen und Abwertungen von Menschen damit rational begründet werden können.
Wie reagiert die Politik?
Man kann argumentieren, dass Regierungen immer weniger regieren. Diese Aufgabe wird als Selbstregierung jetzt den Menschen abverlangt. Komplexe Gesellschaften lassen sich am besten optimieren, indem man den Optimierungsdruck in die Subjekte hinein verlagert. Und das nehmen wir mittlerweile als etwas Selbstverständliches wahr. Weil wir ja auch davon profitieren. Wir stellen die Effizienzgewinne sowohl in der Wirtschaft als auch in Bereichen wie Gesundheit oder Freizeit in den Vordergrund, sehen aber zu wenig die Veränderung des Sozialen, die damit einhergeht.
Das ist die zentrale These ihres vor zwei Jahren erschienenen Buches. Was hat sich seither verändert?
Bestimmte Beispiele, die ich heute in Vorträgen verwende, wären damals noch nicht einmal in meinen schlimmsten Phantasien aufgetaucht. Etwa Werkzeuge zur digitalen Bewusstseinsveränderung, mit denen Leute versuchen, ihre Stimmungen zu steuern und zu regulieren. Das Ausmaß an quasireligiösen Heilsversprechungen hat man auch vor zwei Jahren schon andeutungsweise gesehen, aber jetzt wird der Markt überflutet von Geräten, die immer mehr Bereiche transparent und messbar machen. Wir haben in vielen Bereichen einen Evaluationsfetischismus. In Schulen, Kindergärten, selbst auf einer Toilette muss man Fragebögen ausfüllen oder auf Smileys drücken.
Das heißt Daten erobern ständig neue Lebensbereiche?
Kein Bereich der Gesellschaft ist mehr rationalisierungsresistent. Es geht überall um Effizienzsteigerung, selbst bei Ehrenamt, Trauerarbeit oder Kindererziehung. Das ist auch ein Effekt der Verwissenschaftlichung von Gesellschaften. Auf diese Verwissenschaftlichung und Pädagogisierung setzt die Digitalisierung auf, oder wie ich das nenne, die digitale Alchemie: Etwas Schlechtes soll besser werden, etwas Unedles soll veredelt werden. Und das steuern vor allem die Eliten - im soziologischen Sinne, nicht unbedingt im ökonomischen. Zum Beispiel Programmierer, die definieren, was das Veredelungsziel ist und was der Veredelungsgrund sein soll.
Die Frage ist also, wer die Zielfunktion definiert?
Das ist für mich das Spannende. Die Messzone hat sich ausgeweitet. Das wird so hingenommen, quasi passiv. Man lässt sich von bequemen, komfortablen Technologien manipulieren und man weiß es - die Leute sind ja nicht dumm. Vielmehr sind sie informiert und ignorant zugleich.
Höre ich in Ihrer Argumentation fundamentale Kapitalismuskritik?
In erster Linie geht es um Technikdeterminismus: Die Illusion, dass man alle sozialen Werte in technische Werte überführen könne. Da gibt es fatale historische Beispiele: Bei den Nazis gab es die Reichskennziffer und heute gibt es den Social Credit Score in China. Im schlimmsten Fall geht es darum, einen Menschen auf eine Ziffer zu reduzieren und diesen Wert dann mit Chancen zu verknüpfen. Zum Beispiel China: Nur wessen Daten in einem bestimmten Bereich liegen, bekommt dann eine Wohnung, ein Auto, Gesundheitsdienstleistungen und so weiter. Und das wird mehr oder weniger hingenommen. So etwas funktioniert nur innerhalb eines Systems, das auf Wachstum und Effizienz ausgelegt ist. Hier verknüpfen sich Kapitalismus und ein informationeller Totalitarismus.
Dabei heißt es doch "Geht's der Wirtschaft gut, gehts uns allen gut".
Dieses wachstums- und effizienzgetriebene System wird auf eine bestimmte Art und Weise bespielt und das ist eine weitere Einflussgröße: Der Neoliberalismus, die Verlagerung der Verantwortung in das Subjekt hinein bei gleichzeitigem Nicht-Vorhandensein von Chancen. Den Menschen wird suggeriert, Leistung würde sich lohnen. Es gibt zwar nicht genug Arbeit und Chancen, aber die Suggestion wird aufrechterhalten: Wenn ich mich verbessere, dann komme ich irgendwann nach oben. Es gibt Alternativen zu diesem Modell, etwa die Idee einer reduktiven Moderne. Das funktioniert aber leider meist nur intellektuell, nicht aber operativ.
Sollte Technik nicht neutral sein? Wie kommt es zu diesen ideologischen Aufladungen?
Ich glaube, dass der Satz “Technik ist neutral” eines der am meisten missverstandenen Zitate ist. Technik ist immer politisch, es gibt viele Beispiele dafür, wie man mit Technik Politik erst praktisch werden lässt. Es gibt eine lange Debatte über den Menschen als Mängelwesen auf der einen Seite und auf der anderen Seite gibt es diese quasi-religiöse Aufladung von Technik als Magie. Wenn man sich das ganze Repertoire der digitalen Transformation anschaut, haben wir eigentlich alle Ingredienzien einer Religion - Gurus, Jünger, Regeln, Liturgien, Glaubensbekenntnisse und so weiter. Man könnte sagen, das sei eine zeitgemäße Ersatzreligion geworden, mit entsprechenden Heilsversprechen.
Warum glauben die Menschen das blind?
Solche Objektivitätsversprechen passen perfekt in unsere Zeit. Der Glaube daran, das Unkontrollierbare kontrollieren zu können, darum geht es letztendlich. Wenn man das noch in Geräte verpackt, die blinken und recht komfortabel sind, ist das für viele Leute eine Entlastungsfunktion. Wenn man - wie ich - eher einem poetischen Ansatz folgt, dann könnte man sagen: die Welt wird erzählt und nicht gezählt. Das aber ist wesentlich anstrengender und daher weniger beliebt.
Kann Technologie überhaupt gesellschaftliche Probleme lösen?
Ich würde sagen: niemals. Technologie benötigt eine kulturelle Rahmung - das wird oft vergessen - und eine soziale Grundierung. Moderne Technologien neigen aber immer dazu, manipulativ zu sein, aus Eigeninteresse in Märkte eingeführt zu werden und Nebenfolgen zu erzeugen, die dann wieder technologisch gelöst werden müssen. Was definitiv fehlt, ist eine starke soziale Utopie, in die die digitale Transformation eingebunden wird. Es ist doch genau andersherum. Die digitale Transformation erzeugt einen Anpassungsdruck für Individuen und Institutionen – und zwar ohne dass wir uns darüber verständigt haben, wie wir in Zukunft sinnhaft zusammenleben wollen.
Nimmt die Politisierung der Technik zu? Gibt es so etwas wie eine Silicon Agenda?
Bis vor kurzem hätte ich nicht gedacht, dass ich nach Mark Zuckerbergs Aussage – sinngemäß “wir sollten Politik durch Software ersetzen” – ernsthaft darüber nachdenken würde, ob das vielleicht wirklich eine Alternative wäre. Warum könnte man auf den ersten Blick etwas Charmantes daran finden? Weil Politik in der Tat immer weniger zielorientiert erscheint. Es gibt mittlerweile so viele Vollpfosten, die Politik machen und ihrer langfristigen Verantwortung nicht gerecht werden, dass man wirklich das Vertrauen in „die Politik“ verlieren könnte. Die Abgas-Affäre ist ja nichts anderes als die Vermischung von Software-Spielereien und politischer Verantwortungslosigkeit vor dem Hintergrund geopolitischen Kalküls. Wir erleben nahezu täglich, dass politische Entscheidungen außerhalb des politischen Systems getroffen werden. Wo bleibt da der Volkswille?
Der Volkswille kann auch ein problematisches Konzept sein.
Wenn man nun Gesellschaft mit Software verwalten könnte, wäre man versucht zu denken, dass dadurch etwas besser wird. Eine auf den ersten Blick modern daherkommende Idee. Wenn ich mir aber überlege, wer das Politische durch Software ersetzen will, wenn ich mir vorstelle, welche Machtkonzentration entsteht und welches Weltbild die digitalen Alchemisten haben, dann bekomme ich Angst vor Maoismus per Algorithmus. Dann lieber unser imperfektes System mit Vollpfosten. Jedenfalls ist die unvollkommene Demokratie, in der reale Menschen versuchen mehr oder weniger deliberativ etwas auszuhandeln, besser als eine softwarebasierte Entscheidungsmaschine auf der Basis künstlicher Intelligenz.
Sind wir schon auf dem Weg zu einer "algorithmischen Diktatur"?
Heute dringen Unternehmen über Algorithmisierung ganz stark in das Politische ein. Ob das wirklich noch Demokratie ist, welche Vorstellungen und Normen sich dann durchsetzen, ob das noch eine sozial inklusive Gesellschaft ist, oder eher eine sehr stark diskriminierende Gesellschaft, ob Selbstoptimierung zum Konformismus führt, indem alle sich nach dem gleichen Prinzip optimieren, das sind die offenen Fragen unserer Zukunft.
Wird man als Kritiker nicht schnell ins Eck der Maschinenstürmer gestellt?
Vielerorts, etwa im Verbraucherschutz, hat man sich verabschiedet vom Bild des aufgeklärten Menschen. Ich bin noch nicht bereit, das zu tun. Ich kann zwar viele Beispiele dafür sehen, dass Leute sich nicht vernünftig verhalten - ich tue das übrigens auch nicht. Die Frage ist aber, ob wir ein Recht auf Irrationalität und Unvernunft haben, oder ob wir alles immer einem volkswirtschaftlichen Kalkül unterwerfen müssen und ob andere ein Recht für sich reklamieren können, uns zu lenken. Ich möchte ein Recht auf Zweifel haben und auf Irrtum, darauf Dinge auszuprobieren. Das ist etwas Menschliches für mich. Manche mögen mich dafür als Maschinenstürmer bezeichnen, ich sehe das anders.
Sehen Sie breiten Widerstand gegen eine mechanistische Vorstellung von Gesellschaft?
Maschinenstürmer sehe ich auch kommen, aber aus einer anderen Ecke. Es wird Gegenbewegungen geben, die mehr ins Subversive gehen. Leute, die sagen “ich mache das nicht mit, ich will nicht perfekt sein”. Oder vielleicht wird es Unternehmen geben, die sagen “bei uns müssen sie keine Daten abliefern” - so wie es inzwischen ganz selbstverständlich gentechnikfreie Lebensmittel gibt.
Warum bevorzugen Sie Menschen als Entscheider, wenn deren Bilanz eher mäßig ist?
Jede Entscheidung besteht aus drei Teilen: Ziele definieren, festlegen, wie ich die Ziele erreiche und Folgenverantwortung tragen. Algorithmen können die perfekten Werkzeuge sein für den Mittelteil eines Entscheidungsprozesses. Was sie uns nicht abnehmen können, ist die Festlegung der Ziele. Die müssen wir selbst aushandeln und das ist mühsam, weil wir eben nicht alle aufgeklärt und vernünftig sind. Trotzdem glaube ich an die Kraft partizipativer Verfahren. Das Problem der letzten Jahre ist, dass die Menschen nicht mehr merken, dass die Fragen der Zeit mit ihnen zu tun haben. Der Mittelteil der Entscheidungen, der kann übernommen werden von Algorithmen. Die können dann die besten Möglichkeiten heraussuchen, sie können das Machbare und Mögliche managen. Aber die Verantwortung für die Folgen müssen auch wieder Menschen übernommen werden. In dem Moment, wo wir anfangen - siehe Zuckerbergs Aussage “Wir brauchen eine Infrastruktur für das Soziale” - die Ziele von einer intelligenten Software setzen zu lassen, wird es aber problematisch.
Große Tech-Firmen stellen die Gesellschaft vor Tatsachen. Ist der Staat auf dem Rückzug?
Das ist eine Entwicklung, die sich gerade in Gesellschaften mit bürgerschaftlichem Engagement, Ehrenamt und Privatisierung zeigt. Es gibt viele Formen des Outsourcens, des Rückzuges. Arlie Hochschilds Buch “The Outsourced Self” zeigt, dass die Menschen ein Bedürfnis haben, Leistungen auch im privaten Bereich auszulagern. Wir wollen eigentlich nur noch das pure Glück empfangen, aber der Weg dahin ist uns zu anstrengend. Da ist es erstmal auch nachvollziehbar, dass Regierungen und Politiker sehr schnell überlegen, wie sie Verantwortung und vor allem auch Kosten outsourcen. Aber da geht dann auch einiges verloren. Ich komme aus einem kleinen Ort im Schwarzwald - wenn da nicht die Bürger selbst etwas in die Hand nehmen, dann passiert gar nichts, egal ob es um den Landarzt oder das Schwimmbad geht. Da wird alles outgesourct. Damit wird es aber volatil, es wird brüchig und ist am Ende nicht mehr garantiert. Wenn die Leute weg sind, die sich engagieren, dann ist auch das Angebot weg.
Treffen Sie in Ihrem Privatleben Maßnahmen, um Ihre Datenspur zu minimieren?
Ich trenne zumindest einmal die private Person von der öffentlichen Persona. Die öffentliche Persona gibt Daten preis, etwa über Veranstaltungen, die private Person kaum. Dinge, die mir wirklich wichtig sind, schreibe ich auf, ich erzähle lieber, als zu zählen. Und ich denke immer daran, dass nicht jede Möglichkeit zu ihrer Nutzung verpflichtet – also nutze ich zum Beispiel kein Whatsapp, auch wenn das alle in meiner Familie tun. Irgendwie bekomme ich dann doch noch alles mit.
Welche positiven Aspekte können Sie dem Selftracking und dem Bestreben nach Selbstoptimierung attestieren?
Immerhin können sich Menschen noch frei entscheiden, in welchem Bereich sie sich selbst optimieren möchten. Selbstvermessung beinhaltet im Kern also auch ein emanzipatorisches Potenzial. Zudem können Laien eigene Daten verbinden und teilen - „sharen“ - und damit Deutungsmacht erlangen.