Big Data

© Getty Images/iStockphoto/peter howell/IStockphoto.com

Datenhunger ist kein nachhaltiges Geschäftsmodell
09/21/2016

Datenhunger ist kein nachhaltiges Geschäftsmodell

Sarah Spiekermann beschäftigt sich mit der Zukunft des technischen Fortschritts. Im futurezone-Gespräch sagt sie, warum datenhungrige Firmen wie Google nicht nachhaltig sind.

von Barbara Wimmer

Die WU Wien eröffnet dieses Semester mit dem „Privacy & Sustainable Computing Lab“ ein neues Forschungslabor. Dabei geht es um Themen wie den Schutz der Privatsphäre, aber auch wie man mit neuen Technologien die Offenheit erhöhen kann. Initiiert wurde dieses von Sarah Spiekermann, Institutsvorstand für Betriebswirtschaftslehre (BWL) und Wirtschaftsinformatik an der WU Wien. Die futurezone traf die Professorin zum Gespräch über Datenschutz und Privatsphäre in einer digitalen Welt.

futurezone: Können Sie mir bereits etwas zu den Forschungsprojekten im Labor verraten?Sarah Spiekermann: Das erste Projekt heißt „Seramis“ und es geht dabei darum, RFID-Technologie im Einzelhandel auf Privacy-Fragen zu überprüfen. Wir entwickeln in dem Rahmen auch ein Tool, das Unternehmen erlaubt, die Rechtskonformität und Datenschutzfreundlichkeit ihrer Systeme zu prüfen. Ein zweites Projekt heißt „Privacy & Us“. Das ist ein Marie Curie-Projekt, bei dem wir uns mit der Psychologie des Besitzes von persönlichen Daten beschäftigen. Können Leute ein Gespür für persönliche Daten entwickeln? Wenn Bürger am Handel mit ihren Daten beteiligt werden sollen, müssen wir Daten als etwas begreifen, das wir besitzen. Wir beschäftigen uns im Zuge des Projekts mit der Frage, ob das wünschenswert und denkbar ist.

Begreifen Menschen ihre Daten als ihren Besitz? Wir haben herausgefunden, dass Menschen ihre Daten erst dann wertschätzen, wenn sie merken, dass andere Leute damit Geld verdienen. Erst wenn sie merken, dass ihre Daten verkauft werden schreiben sie Daten Wert zu. Wenn sie merken, dass andere mit ihren Daten verdienen, werden sie extrem sauer, wenn sie nicht beteiligt werden. Oft kommt es dann zu unrealistisch hohen Erwartungen.

Wie muss Datenschutz im digitalen Zeitalter aussehen? Ich glaube, dass die neue Rechtssprechung zur EU-Datenschutzverordnung aus Brüssel dafür sorgen wird, dass Technik künftig anders gebaut wird und die Privatsphäre weniger untergräbt. Technik ist zunehmend in der Lage, den Menschen automatisch zu schützen. An das knüpfen die Entwicklung an. Man gibt Menschen Tools in die Hand, um ihre Privatsphäre zu schützen.

Wir hinterlassen überall im Web Datenspuren. Konzerne wie Google, Facebook & Co wissen fast alles von uns. Glauben Sie wirklich, dass man diesen Datenhunger der großen Konzerne noch aufhalten kann? Das ist eine sehr fatalistische Haltung. Google und Facebook bestimmen derzeit sehr stark, wie Daten benutzt und vielleicht sogar missbraucht werden. Wir leben derzeit aber noch in einem Kindergartenzeitalter der technologischen Entwicklung. Nur weil ein paar Firmen, die vielleicht in 10 Jahren schon gar nicht mehr relevant sind, es anders machen, heißt das nicht, dass wir nicht die Möglichkeit haben, die Zukunft zu gestalten.

50 Prozent der Blue-Chip Start-ups werden in Europa gegründet. Die Innovationskraft, die wir hier haben, können wir durchaus weiter ausbauen. Außerdem gibt es mittlerweile eine ganze Reihe von Unternehmen, die dafür sorgen, dass die Nutzer ihre Daten besser kontrollieren können. Da gibt es spannende, kleine Unternehmen, die die Zukunft sein könnten.

Das heißt, die Googles dieser Welt werden Ihrer Ansicht nach abgelöst von datenschutzfreundlichen Unternehmen? Die Unternehmen, die darauf bauen, unsere Daten allein eigennützig und ohne unsere Einflussmöglichkeit für sich zu benutzen, haben meiner Meinung nach kein nachhaltiges Geschäftsmodell. Nutzer werden irgendwann erkennen, dass sie keinen Kredit mehr erhalten bei der Bank, weil sie zu viel auf Facebook plaudern. Unternehmen müssen sich den Nutzern gegenüber fair verhalten. Ansonsten werden sie mittelfristig Konsequenzen zu spüren bekommen. Wenn man seine Freunde gerne hat, bemüht man sich ehrlich um die Freundschaft. Wer einen jemand auf Dauer in die Pfanne haut, wendet man sich irgendwann auch vom besten Freund ab – vorausgesetzt, man kommt ihm/ihr drauf. Dazu ist es wichtig, das Forscher, Journalisten und Whistleblower, die Machenschaften aufzudecken. Das hat man auch in anderen Märkten z.B. der Lebensmittelbranche schon gesehen. Da wurde lange Zeit auf Billigprodukte gesetzt. Diese erzielen heute kaum noch Marge. Erfolgreich sind hingegen Bioprodukte.

Algorithmen sind nicht frei von Vorurteilen und Diskriminierung. Warum haben sie dann trotzdem bei vielen Menschen einen guten Ruf, den der „allumfassenden Weisheit“?Weil wir einem falschen Forschungskonzept hinterherlaufen. Dieses lautet: Jede technische Neuerung = Fortschritt = gut. Das ist falsch, viele technische Entwicklungen sind Rückschritte und nicht Fortschritte. Das haben wir noch nicht gelernt. Wir müssen lernen aktiver zu entscheiden, was wir in die Welt setzen, was wir wollen und was nicht. Wenn wir das nicht mehr selbst entscheiden, haben wir ein Problem. Es gibt durchaus schlechte technische Entwicklungen. Aber wenn man das sagt, ist man sofort ein Verhinderer, ein Esoteriker, ein Rückschrittler. Das ist aber Blödsinn. Die Leute, die sich mit Technik auskennen, wissen genau, dass es gute und schlechte Systeme gibt.

Künftig werden viele Entscheidungen von Algorithmen getroffen. Finden Sie das persönlich gut oder schlecht? Warum sollten wir Algorithmen vertrauen? Kein blindes Vertrauen ist erstrebenswert. Es gibt Algorithmen, die in einem ganz isolierten Kontext Entscheidungsträgern dabei helfen können, menschliche Entscheidungen sehr gut zu unterstützen. Aber das sind isolierte Bereiche, die man kontrollieren muss, über die man eine Transparenz legen muss, und beobachten, wie das funktioniert. Es gibt Bereiche, in denen Algorithmen versagen. Das liegt zum Teil an der Datenbasis mit einer schlechten Datenqualität. Es sind veraltete Datensätze oder keine Metadaten vorhanden – da kommt dann nur Kauderwelsch raus. Wenn man dann auf einen Algorithmus schwört, dann schießt man sich selbst ins Knie. Es gilt: Bullshit in – Bullshit out.

Kann man Algorithmen überhaupt möglichst frei von Diskriminierung und Vorurteilen machen? Nein, ein Algorithmus wird immer Daten (Input) irgendwie selektieren, analysieren und clustern. Mit jeder dieser Vorgänge diskriminiert man immer automatisch das, was man nicht miteinbezieht. Gleichzeitig glaube ich schon, dass wir es schaffen können die Diskriminierung im negativen Sinne zu minimieren, wenn wir mehr Transparenz und mehr persönliche Verantwortung von Entwicklern einfordern. Wer verantwortlich ist und dafür schadhaft gehalten werden kann, gibt sich schlichtweg mehr Mühe bei der Systementwicklung. Jeder Software-Entwickler, der einen Algorithmus trainiert, sollte seinen Namen mit dem Programm verknüpfen.. Damit wird der Kontext nachvollziehbar. Entwickler wissen in der Regel, was sie von ihrer Maschine erwarten.

Aber es gab bei Microsoft dieses Experiment, bei dem ein Algorithmus binnen weniger Tage zum Rassisten wurde… Das war ein unerwartetes, offenes Experiment. Im Normalfall wissen Entwickler, was sie vom Programm erwarten, weil sie Feedbackschleifen nutzen, um das System selbst zu trainieren..

Eine Studie hat die Verwendung von Instagram-Filtern analysiert und dabei festgestellt, dass Depressive vermehrt auf andere Filter zurückgreifen als Nicht-Depressive. Wie kann man sicherstellen, dass diese Daten nicht missbraucht werden? Die EU-Datenschutzverordnung regelt hier etwa, dass künftig bei Datenanwendungen mehr Transparenz geschaffen werden muss. Aber bei dieser Frage muss auch die Gesellschaft etwas dazu beitragen, dass ein Missbrauch der Daten gar nicht erst stattfinden kann. Firmen, die diese Daten für ihre Zwecke verwenden, sollten etwa von einzelnen Bürgern bloßgestellt werden. Hier ist jeder einzelne gefordert, auf persönlicher Ebene Missstände anzusprechen.

Der einzelne kann Ihrer Meinung nach etwas bewirken? Wir tendieren dazu, alles an den Gesetzgeber zu delegieren – das halte ich für einen falschen Trend. Wir dürfen nicht unsere eigenen Entscheidungen, was gut oder schlecht ist, dem Gesetzgeber überlassen. Wir müssen uns als Menschen selbst in der Lage sehen, richtig zu entscheiden, ja „ethisch“ zu entscheiden. Das lernen wir von unseren Eltern wenn sie uns Märchen vorlesen. Am Arbeitsplatz sind insbesondere Führungskräfte gefragt. Solche, die systematisch unfaire Analysen und Diskriminierung von sozial Schwächeren anordnen, machen sich angreifbar. Sie lassen ihren Gewinn- und Wachstumswahn und ihre persönliche Neugierde dominieren. Wer das als Manager macht, ist keine Führungskraft, sondern einfach nur bemitleidenswert.

Wie wird in Zukunft die Privatsphäre in der digitalen Gesellschaft aussehen? In Zukunft soll jeder sich entscheiden können, wie öffentlich und wie viel privat er sein möchte – frei von sozialem und gesellschaftlichem Druck. Es darf nicht sein, dass Versicherungsunternehmen mir nur einen guten Tarif anbieten, wenn ich meine Gesundheitsdaten offenlege. Ich muss sagen dürfen, dass ich das nicht will.

Was hoffen Sie mit dem Privacy Lab zu erreichen? Wir wollen eine befruchtende, kreative Forschungsumgebung schaffen. Und wir werden uns in internationale Standardisierungsaktivitäten einbringen. Um das erarbeitete Wissen fruchtbar werden zu lassen, werden Lab-Mitarbeiter in internationale Standardisierungsverfahren eingebunden, insbesondere beim W3C und IEEE mit ihren 430.000 Mitgliedern. Die zunehmende Digitalisierung konfrontiert IT-Firmen stärker denn je mit der Notwendigkeit, datenschutzfreundliche, offene, freie, ethische und nachhaltige Technologien bereit zu stellen. Bei unserer Tätigkeit sollen Standards rauskommen, um dieser Entwicklung gerecht zu werden. Egal ob Roboter gebaut werden, Big Data analysiert oder Businessanwendungen eingeführt werden. Wir wollen konstruktiv an der Gestaltung der Zukunft mitarbeiten.

Wer wird hier mit an Bord sein? Professor Axel Polleres ist Informatiker und gestaltet das Lab mit seinen Kompetenzen mit. Sabrina Kirrane wird es leiten. Professor Schweighofer ist Rechtswissenschafter und mit ihm werden wir ebenfalls eine Kooperation haben. Außerdem ist es geplant, mit Aktivisten zusammenzuarbeiten. Personen, die keinen Uni-Abschluss haben, können wir an einer Universität nicht anstellen. Aber im Rahmen des Labs ist dies möglich. Viele davon haben wertvolles Know How und sind näher an praktischen Problemen dran.

Was war für Sie der Anlass, ein eigenes Lab für Privatsphäre und Nachhaltigkeit zu schaffen? Unsere Gruppe kommt aus der betriebs- und volkswirtschaftlichen Ecke, das Thema Privatsphäre ist aber in der Forschung nur interdisziplinär zu bewältigen. Wir können Forschung in den Technologiegestaltungsbereichen nur machen, wenn wir uns mit Informatikern, Rechtswissenschaftlern und Philosophen zusammensetzen. Ein „Lab“ ist eine gute Möglichkeit, wie Institute miteinander kooperieren können.

Wie finanziert sich das Lab? Derzeit rein aus Institutsmitteln. Dem Institutsbudget und Forschungsförderung. Das sind Drittmittel von Projekten, die von der EU gefördert werden. Wir haben drei große EU-Projekte am Laufen.

Wie können sich Interessierte an das neue Lab wenden? Über die Lab Direktorin Sabrina Kirrane oder das Sekretariat.

Hinweis: Bei der Eröffnung des Labs am 29. und 30. September werden neben Max Schrems auch internationale Vordenker wie Aral Balkan und hochrangige Vertreter von Standardisierungsgremien sprechen. Es wird auch eine große Studie rund um die Herausforderungen zu Datenschutz von Wolfie Christl von Cracked Labs vorgestellt. Es gibt noch freie Plätze im Auditorium.