Netzpolitik

Warum wir für ein gerechteres Internet kämpfen müssen

Für die Autorin Ingrid Brodnig war das Internet eine große Hoffnung: Sie war sich sicher, dass es zu einer aufgeklärteren, wohlhabenderen, gerechteren Gesellschaft beitragen würde. Nun ist sie aber nicht mehr davon überzeugt. Der digitale Wohlstand ist ungleich verteilt und große Unternehmen wie Google, Facebook und Amazon haben im Netz die Übermacht. Die Digitalisierung birgt in seiner jetzigen Ausgestaltung gesellschaftliche Risiken. Die futurezone traf die Autorin zum Interview.

futurezone: Das Internet hat sich anders entwickelt, als wir es uns zu Beginn vorgestellt haben. Große Unternehmen regieren im Netz und haben die Macht und es ist kein demokratischer Ort mehr. Wie sehen Sie diese Entwicklung?

Ingrid Brodnig: Genau aus dieser Frustration heraus habe ich das Buch geschrieben. Ich kann mich erinnern: Als ich als Schülerin erstmals ins Internet ging, war mir bewusst, dass damit unsere Gesellschaft revolutioniert wird. Jetzt sehen wir aber, dass die Revolution auch zum Nachteil der Konsumenten stattfinden kann. Dabei hätte das Netz noch immer die Chance, dass Bürger davon profitieren.

Wann hat es begonnen, in die falsche Richtung abzubiegen?

In den letzten zehn Jahren haben große Konzerne ungeheure Macht angehäuft – und für uns auch Regeln vorgegeben. 2009 hat Facebook die Standard-Einstellung für Postings von Nutzern verändert. Postings wurden plötzlich standardmäßig öffentlich angezeigt. Mark Zuckerberg erklärte damals, dass das „jetzt die gesellschaftlichen Normen“ seien. Das war krass, weil diese Änderung damals mit einem Schlag 350 Millionen User betraf. Jetzt sind es zwei Milliarden Nutzer. Das bedeutet: Wir haben einzelne, wenige Unternehmen, die die Normen von einem großen Teil der Erdbevölkerung prägen. Es geht um uns, als Gesellschaft. Das Internet sollte uns allen etwas bringen.

Sie schlagen in Ihrem Buch vor, die Digitalisierung nicht den Unternehmen zu überlassen. Wie kann man das erreichen?

Man muss zuerst ein paar Brennpunkte identifizieren. Daten sind das erste Thema. Das gängige Geschäftsmodell baut darauf auf, immer mehr über uns zu sammeln. Der zweite Brennpunkt sind Steuern. Unternehmen haben immer größere Profite, aber es bleibt nur wenig davon in Europa. Das dritte Thema sind Algorithmen. Bürger können Entscheidungen nicht mehr nachvollziehen, wir sind hier mit einer enormen Intransparenz konfrontiert. Das sind drei große Baustellen, die wir regulieren könnten.

Kommen wir zum ersten Thema: Daten. Hier gibt es mit der Datenschutzgrundverordnung bereits eine Regulierung.

Diese ist nur der Beginn, da muss die Aufsicht noch größer werden. Oft wird so getan, als hätten wir die Kontrolle über unsere Daten - und das ist falsch. Mark Zuckerberg sagt immer wieder, dass der User selbst entscheide, was er teilt. Weniger betont wird, dass Facebook auch Dinge macht, die uns gar nicht bewusst sind. Facebook sammelt beispielsweise Handynummern von Dritten. Der Konzern hat womöglich die eigene Nummer, obwohl man die nie eingegeben hat. In dem Fall hat ein Freund  diese hochgeladen, indem er seine Kontakte für Facebook freigegeben hat. Dass Facebook solche Daten für Werbezwecke sammelt, wissen wir nur, weil Wissenschaftler das aufgezeigt haben. Das haben nicht die Nutzer entschieden. Wir müssen Konsumenten stärker auf Augenhöhe mit Unternehmen bringen. Welche Daten wir teilen, ist oft nicht unsere Entscheidung.

Wo hilft hier die Datenschutzgrundverordnung, wo ist sie zahnlos?

Die Auskunftsrechte sind deutlich klarer geworden, das ist gut. Es wurde damit die Position des Konsumenten gestärkt. Das Kernproblem ist eher, dass vieles in der Praxis unklar ist, und dass vieles Höchstgerichte erst entscheiden müssen.  Da haben wir mühevolle Jahre vor uns. Manch ein Geschäftsansatz, der jetzt Normalität ist, könnte per Urteil rechtswidrig werden. Allerdings wird es wahrscheinlich zehn Jahre dauern, bis wir wirklich wissen, wo wir stehen – wenn große Verfahren ausjudiziert sind. Bis dahin könnten sich gesellschaftliche Normen verschoben haben und wir könnten uns daran gewöhnt haben, dass alle möglichen Daten abgesaugt werden, etwa sensible Daten über Apps weitergegeben werden.

Die türkis-blaue Ex-Regierung hat Pläne einer Digitalsteuer vorgelegt. Was halten Sie von dem Modell?

Das, was von der Ex-Regierung als Digitalsteuer bezeichnet wurde, ist eher ein Tropfen auf dem heißen Stein. Die Werbeabgabe auf Printprodukte soll damit auch auf digitale Unternehmen transferiert werden. Das ist ein Gleichstellen und kein großer Wurf. Wir brauchen viel mehr.

Was zum Beispiel?

Das Kernproblem ist: Unser Steuermodell wurde vor circa 100 Jahren entwickelt, damals gab es noch keine globalen, digitalen Konzerne. Wir müssen daher das europäische Steuerrecht komplett neugestalten und nicht nur einzelne, kleine Bausteine. Das Problem ist messbar. Die EU-Kommission selbst sagt, dass Unternehmen mit klassischem Geschäftsmodell einen effektiven Steuersatz von 23,2 Prozent haben, während Digital-Unternehmen nur 9,5 Prozent Steuern zahlen.  Das ist weniger als die Hälfte, da gibt es eine Schieflage. Wir bräuchten ein Umdenken.

Bringt da ein nationaler Alleingang, wie er in Österreich geplant war, etwas?

Die Idee einer digitalen Betriebsstätte in Europa ist bisher leider gescheitert. Ich hoffe aber auf die nächste EU-Kommission, denn wir brauchen eine europäische Digitalsteuer, die diesen Namen auch verdient.  Ich bin gespannt, was die zuständige Kommissarin Margrethe Vestager hier erreichen wird.

In Ihrem Buch thematisieren Sie außerdem die zunehmende Automatisierung und die Angst vor Jobverlust. Sollte man das beim Thema Steuern gleich mitdenken?

Wir müssen uns auf jeden Fall überlegen, ob und wie man das Steuersystem anpasst, wenn sich das Wirtschaftssystem massiv ändert. Mit der Einkommenssteuer auf Arbeit verdient der Staat. Werden Jobs durch Roboter ersetzt, verliert der Staat diese Beträge. Das wirft große Fragen für unser Sozialsystem auf. Bill Gates plädiert etwa dafür, die Automatisierung steuerlich greifbar zu machen und eine Art Robotersteuer einzuführen. Ein Unternehmen, das keine Jobs bietet, soll nicht belohnt werden.

Das dritte, zentrale Thema für Sie, wo es Regulierung bedarf, sind die Schattenseiten der Personalisierung durch Algorithmen. Haben Sie hier ein Beispiel?

Hier geht es mir um die Frage: Wird das Internet genutzt, um soziale Standards zu verbessern, fairere Arbeitsbedingungen zu schaffen? Moderne Technik hat das Potential, manche Verbesserungen zu bringen – sie kann aber auch einzelne Gruppen benachteiligen. Nehmen wir Amazon. Der US-Riese hat einen Algorithmus entwickelt, der selbstständig die besten Bewerber finden soll. Dieser wurde mit historischen Daten trainiert. Das Problem: In der Geschichte von Amazon haben sich mehr Männer als Frauen beworben. Der Algorithmus hat hier Muster erkannt und falsche Schlüsse daraus gezogen und Bewerberinnen diskriminiert.  Programmierer haben versucht, das auszugleichen, nur hatte der Algorithmus noch viel subtilere Muster erkannt. Etwa Worte, die eher Männer nutzen. Das wurde als positives Signal gewertet. Das Projekt wurde am Ende eingestellt. Dass historisch gewachsene Ungleichheiten von Software widergespiegelt werden, wird nicht immer bedacht.

Wie könnte man dem Problem entgegenwirken?

Es braucht eine gesetzlich verankerte Prüfung. Die Wissenschaftlerin Katharina Zweig schlägt einen differenzierten Zugang vor, je nach Bedeutung des Algorithmus, sollen bestimmte Transparenz-Standards festgeschrieben werden. Unabhängige Wissenschaftler sollen etwa Tests durchführen dürfen. Das kann man regulieren. Auch hier liegt meine Hoffnung bei der EU-Kommission. Wenn es nicht die EU macht, glaube ich, dass Deutschland etwas vorlegen wird bei der Regulierung von Algorithmen.

Warnen möchte ich aber davor, rein auf die Frage zu fokussieren, ob ein Algorithmus gerecht genug ist. Ebenso sollten wir über die Frage reden, ob es Bereiche gibt, bei denen wir als Gesellschaft nicht wollen, dass Software eingesetzt wird.

Was für ein Fall wäre das etwa?

In Österreich setzt die Polizei ab Ende des Jahres Gesichtserkennung zur Verbrechensbekämpfung ein. Wir wissen aber aus Untersuchungen, dass Gesichtserkennungssoftware oft extrem falsch liegt. Das Programm Rekognition von Amazon kann schwarze Frauen oft nicht richtig identifizieren. Die Fehlerquote liegt bei fast einem Drittel. Der erste Impuls wäre, dass wir der Software mehr Daten geben – Bilder von schwarzen Frauen. Damit schaffen wir aber immense Überwachungsfähigkeiten der Software. Ehe wir solche enornen Überwachungstools schaffen, sollten wir zuerst die Frage klären: Wo soll Gesichtserkennung überhaupt eingesetzt werden? Hier brauchen wir Grenzen. Zum Beispiel sollte ich im öffentlichen Raum nicht damit rechnen müssen, dass mein Gesicht live erfasst und analysiert wird.

Warum interessiert sich die Politik immer erst dann für neue Entwicklungen, wenn es praktisch zu spät ist und sie nur noch auf neue Technologien reagieren statt agieren kann?

Bei vielen US-Konzernen lautet die Unternehmensstrategie „move fast and break things“, so auch bei Facebook früher. Unsere europäische Politik ist nicht schnell, die ist träge. Das ist Demokratie. Die ist langsamer als Unternehmensentscheidungen. Viele Unternehmen wollten gezielt schnell wachsen, – womöglich auch, um Fakten zu schaffen gegenüber Regulatoren und dem Wettbewerb.

Das Problem: Wenn ich nicht ein digital hochinteressierter Mensch bin und mich nicht ständig damit beschäftige, ist das ein sehr unsichtbarer Prozess. Wenn die Digitalisierung so sichtbar wäre wie der Verkehr, hätten wir schon längst eine Regulierung.

Wie können wir das ändern?

Im Optimalfall wacht Europa jetzt auf. Die EU-Kommission redet immer mehr darüber und setzt sich damit auseinander. Wir haben eine Chance, dass Europa digitale Bürgerrechte stärkt. Die andere Variante und Gefahr wäre, dass Staaten Deals mit großen Konzernen eingehen, wie es etwa in Großbritannien schon passiert ist. Dort hat die Gesundheitsbehörde NHS sensible Daten von 1,6 Millionen Briten an eine Schwesternfirma von Google gegeben. Die Öffentlichkeit hat anfangs nichts davon gewusst. Mit diesen Daten hat Google eine App entwickelt, die weltweit ausgerollt wurde. Es besteht also die Gefahr, dass Staaten genau das Gegenteil machen von dem was sie tun sollten.

Was sollten Staaten denn tun?

Transparenz schaffen. Wir wissen wenig über manche staatlichen Deals. Das Arbeitsmarktservice (AMS) hat etwa einen Algorithmus entwickelt. Das haben wir aus den Medien erfahren. Dass die Gesichtserkennung bei der Polizei eingesetzt wird ebenfalls. Es hat in beiden Fällen keine Vorabdebatte gegeben. Das zweite ist die Steuerthematik. Das ist lösbar. Die Frage ist, ob man es lösen will.

Wenn man sich als Bürger nicht darauf verlassen will, dass der Staat das schon richtet: Was kann man als Einzelner gegen die Übermacht der Konzerne tun?

Aufmüpfig sein. Jeder kann Anfragen an Unternehmen stellen, welche Daten es über mich sammelt. Bei mir wurde zum Beispiel sichtbar, dass Amazon jede einzelne Bestellung der letzten 16 Jahre über mich gespeichert hat. Man lernt bei solchen Anfragen viel. Und es hilft uns, wenn wir mehr wissen. Dann sollte man sich Verbündete suchen und etwa Akteure unterstützen, die unsere Interessen vertreten. Die NGO rund um Max Schrems oder Datenschützer wie epicenter.works kann man mit Spenden unterstützen. Außerdem kann man sein Wissen vermehren. Umso mehr wir darüber reden, desto mehr wird sich verändern.

Das Buch „Übermacht im Netz“ erscheint am 16.9. beim Brandstetter Verlag (ISBN 978-3-7106-0366-2) und wird am 17.9. erstmals offiziell vorgestellt (Beginn 18.30 Uhr, Radiocafé im ORF-Kulturhaus). Einen weiteren Termin mit Lesung gibt es am 30. September beim Thalia Wien Mitte.

Klicken Sie hier für die Newsletteranmeldung

Hat dir der Artikel gefallen? Jetzt teilen!

Barbara Wimmer

shroombab

Preisgekrönte Journalistin, Autorin und Vortragende. Seit November 2010 bei der Kurier-Futurezone. Schreibt und spricht über Netzpolitik, Datenschutz, Algorithmen, Künstliche Intelligenz, Social Media, Digitales und alles, was (vermeintlich) smart ist.

mehr lesen