Algorithmen: "Es fehlt oft die menschliche Kontrolle"
Dieser Artikel ist älter als ein Jahr!
Algorithmen gewinnen in einer Gesellschaft, die zunehmend auf Daten basiert, an Bedeutung. Das führt dazu, dass auf dem Gebiet auch viel geforscht wird - auch in Österreich. Auch die TU Wien mischt hier kräftig mit. Die Universität richtet dieses Jahr die ALGO aus, die wichtigste europäische Fachtagung auf diesem Gebiet. Vom 4. bis 8. September treffen sich hier die besten Algorithmenforscher der Welt, um die neuesten Entwicklungen zu präsentieren und zu diskutieren. Stefan Szeider von der TU Wien spricht im futurezone-Interview über Probleme mit intransparenten und proprietären Algorithmen, die wichtige Rolle menschlicher Entscheidungen und das Potenzial, das die Forschung noch ausschöpfen kann.
futurezone: Wie stark haben Algorithmen in den vergangenen Jahren an Bedeutung gewonnen?
Stefan Szeider: Das Gebiet ist in den vergangenen Jahren explodiert. Die Anforderungen werden immer höher, weil die Datenmengen um ganze Größenordnungen anwachsen und die Konsumenten ungeduldig sind - jeder will die optimale Route am Smartphone sofort zur Verfügung haben. Entsprechend groß sind auch die Fortschritte. Wenn sie einen modernen Algorithmus auf 20 Jahre alter Hardware laufen lassen, ist das in vielen Fällen schneller, als wenn sie den Algorithmus von vor 20 Jahren auf moderner Hardware einsetzen. Auch das Cloud-Computing stellt interessante Anforderungen an Algorithmen, weil die Daten auf verschiedene Server verteilt sind und die transportierten Datenmengen möglichst gering sein sollen.
Haben Algorithmen heute ein Imageproblem?
Dass es ein negatives Bild gibt, kann ich bestätigen. Das liegt auch daran, dass das Thema in den Medien meist in einen bedrohlichen Kontext eingebettet wird. Zudem ist der Begriff zum Modewort geworden. Vor 20 Jahren hätten Journalisten in vielen Fällen wohl noch Computerprogramm geschrieben. Der Begriff Algorithmus klingt für Leser weniger konkret und ruft oft Darth-Vader-Assoziationen hervor. Die ALGO beschäftigt sich aber vorrangig mit der hellen, positiven Seite von Algorithmen. Wir sind - um im Bild zu bleiben - die Jedis der Algorithmen.
Oft wird kritisiert, dass Algorithmen in einigen Fällen Vehikel für Vorurteile sind.
Wer den Algorithmus einsetzt, trägt meiner Meinung nach die Verantwortung, auch wenn das den Anwendern oft nicht klar ist. Ein Algorithmus, der die Vorauswahl der Bewerber für einen Job übernehmen soll, kann etwa so konstruiert werden, dass er Profile bevorzugt, die möglichst gut mit bereits im Unternehmen beschäftigten Personen übereinstimmen. Das kann aber zur Perpetuierung von Vorurteilen wie rassistischen Diskriminierungen führen. Die menschliche Kontrolle fehlt oft. Menschen nutzen zwar auch Algorithmen, um Entscheidungen zu treffen, haben aber die Möglichkeit zur Selbstreflexion.
Sind moderne Algorithmen noch nachvollziehbar?
Algorithmen enthalten oft implizite Spezifikationen. Wenn diese durch maschinelles Lernen gewichtet werden, kann es zu unvorhergesehenen Auswirkungen kommen. Dann ist es oft schwer nachzuvollziehen, wie Algorithmen zu ihren Entscheidungen kommen. Das ist relativ egal, wenn es darum geht, Katzen auf Bildern zu erkennen. Wenn es aber um medizinische Diagnostik geht, sind die Kosten von Fehlern sehr hoch. Hier wäre es wichtig, dass die Algorithmen auch eine Erklärung für ihre Entscheidungen liefern. Das ist gerade in Fällen, in denen maschinelles Lernen zum Einsatz kommt, eine Schwachstelle. An Lösungsansätzen wird aber bereits massiv geforscht.
Wie wichtig sind die Daten, auf denen Algorithmen aufbauen?
Die Spezifikationen sind wichtig. Der Algorithmus ist nicht schuld, wenn es zu unvorhergesehenen Nebenwirkungen kommt. Deshalb müssen die Parameter gut überlegt sein. Daten sind oft nicht repräsentativ. Bei Facebook produzieren nur rund sieben Prozent der Nutzer auch Inhalte, bei Amazons Bewertungen sind es vier Prozent und bei Twitter nur zwei. Und diese wenigen Prozent stammen vorwiegend aus ganz speziellen sozialen Gruppen, und sind nicht repräsentativ. Man kann versuchen, das statistisch zu kompensieren, aber solche Dinge müssen jedenfalls bedacht werden.
Zu welchen Probleme können unsaubere Implementierungen führen?
Fehler sind nicht immer schlimm, etwa bei Netflix-Empfehlungen. Aber wenn Nutzer von Plattformen auf Basis von Algorithmen nur Nachrichten angezeigt bekommen, die ihre Vorurteile bestätigen, dann kann das gesellschaftliche Probleme generieren. Die Verantwortung hier liegt aber weniger im Bereich der Algorithmenforschung als bei den Betreibern der Plattformen und der Nutzer. Ein Algorithmus kann Prozesse meistens schneller machen. Wenn ich will, dass er auch gerechte Entscheidungen trifft, muss ich entsprechende Kriterien setzen.
Wo würden Sie vom Einsatz algorithmischer Entscheidungsfindung abraten?
Sehr vorsichtig wäre ich in Bereichen, wo das Schicksal von Menschen auf dem Spiel steht, also etwa etwa im Bereich Medizin oder Jobbewerbungen. Einen Richter sollte man nicht durch einen Algorithmus ersetzen, was ansatzweise in den USA schon praktiziert wird. Menschliche Kontrolle der Algorithmen kann das Problem mindern. Auch im Bereich selbstfahrende Autos wird diskutiert, ob es begrüßenswert ist, wenn Algorithmen in Sekundenbruchteilen Entscheidungen treffen, was ein Miteinbeziehen der Fahrer unmöglich macht.
Gerade bei selbstfahrenden Autos heißt es doch immer, dass es sicherer wäre.
Bei selbstfahrenden Autos geht es um ethische Entscheidungen. Die haben die Gesellschaft zu treffen. Das ist nicht die Verantwortung der Algorithmenforscher, die das alleine nicht tragen sollen und können. Falls sich die Technik durchsetzt, werden die Algorithmenforscher dafür sorgen, dass möglichst schnell möglichst gute Entscheidungen getroffen werden, innerhalb eines festgelegten ethischen Rahmens.
Oft heißt es, Algorithmen könnten für mehr Transparenz sorgen. Dabei sind sie oft proprietär und selbst nicht einsehbar.
Diverse Probleme im Bereich Datenschutz ließen sich mit Algorithmen lösen. Es wäre etwa möglich, Suchanfragen anonymisiert durchzuführen. Die mangelnde Transparenz ist den Betreibern anzukreiden. Das gilt auch für proprietäre Algorithmen. Es gäbe in den meisten Fällen Möglichkeiten, die Prozesse nachvollziehbar zu gestalten. Die Algorithmen von Konzernen sind oft Betriebsgeheimnisse, Google und Co lassen sich ungern in die Karten schauen. Das ist auch eine Frage der Grundrechte. Man könnte gesetzlich vorschreiben, dass eine Begründung für algorithmische Entscheidungen geliefert werden muss.
Was sind aktuell für Sie wichtige Forschungsthemen?
In meiner Forschungsgruppe arbeiten wir an Algorithmen für besonders schwere Probleme, die in künstlicher Intelligenz, Logik und Optimierung auftreten. In diesem Bereich gehören wir zum internationalen Spitzenfeld. Da geht es beispielsweise um Algorithmen für Strategieprobleme, die sehr aufwändig zu lösen sind. Hier muss nicht nur eine Antwort gefunden werden, sondern ein optimaler Pfad über viele Teilantworten, immer unter Berücksichtigung aller möglichen Reaktionen eines Gegenspielers. Das kommt etwa bei der Verifikation von Hard- und Software zum Einsatz und hilft Computerfehler zu finden. In unserer Forschungsgruppe arbeiten wir etwa auch mit der MedAustron daran, eine optimale Terminplanung für Patienten im medizinischen Teilchenbeschleuniger zu erstellen.
Das klingt für den Laien erst einmal banal?
Das ist ein hochkomplexes Optimierungsproblem: Müssten alle möglichen Variationen durchgespielt werden, würde das länger dauern, als die 14 Milliarden Jahre, die das Universum bisher existiert hat.
Sie lösen auch komplexe Logik-Probleme. Können Sie ein Beispiel geben?
Wenn es eine Konferenz mit 260 Vorträgen gibt, bei der maximal drei Sprecher gleichzeitig aktiv sein können und es zusätzlich eine Vielzahl von Einschränkungen nach dem Muster “Die Vorträge 12 und 37 dürfen nicht zeitgleich stattfinden” oder “Vortrag 111 muss nach Vortrag 25 stattfinden” gibt, kann ein Algorithmus prüfen, ob es überhaupt möglich ist, alle Vorgaben zu erfüllen, und falls ja, dann auch eine entsprechende Lösung zu berechnen. Ähnliche Muster kommen auch bei Diagnostikalgorithmen zum Einsatz, wo eine Vielzahl von Symptomen über Wahrscheinlichkeiten mit möglichen Diagnosen verknüpft werden und schnell ein paar 1000 Einschränkungen zusammenkommen. Durch die Einbeziehung von Wahrscheinlichkeiten erhöht sich die Komplexität des Problems beträchtlich.
Welchen Stellenwert hat die ALGO?
Die ALGO ist der größte Algorithmen-Kongress in Europa und besteht aus mehreren Teilkonferenzen, deren größte die ESA (European Symposium on Algorithms) ist. Zum Kongress kommen jedes Jahr die Top-Forscher aus der ganzen Welt, Wien hat sich vor zwei Jahren beworben und den Zuschlag für 2017 bekommen. Der Kongress ist hoch kompetitiv, nur etwa ein Viertel der eingereichten Artikel werden akzeptiert und dürfen dann beim Kongress präsentiert werden.
Wo stehen Österreich und Europa bei der Algorithmen-Forschung?
Europa ist auf dem Gebiet sehr gut aufgestellt, Nordamerika, die Pazifikregion und in den vergangenen Jahren auch Asien haben natürlich auch sehr gute Leute. Österreich leistet für seine Größe ausgezeichnete Arbeit auf dem Gebiet.
Besteht hier ein Zusammenhang mit lokaler Tech-Industrie?
Es gibt eine gewisse Korrelation zwischen der Tech-Industrie und der Arbeit im Bereich Algorithmen, im Silicon Valley ist mit Berkeley eine starke Forschungsuniversität angesiedelt. Große Tech-Konzerne holen sich gute Leute aber aus der ganzen Welt. Europäische Experten stehen da hoch im Kurs. Vor allem die Grundlagenforschung spielt in Europa eine große Rolle. Das sollten auch Politiker bemerken, denn hier könnte sich durch eine veränderte Forschungslandschaft in Trumps USA eine Chance ergeben. Investitionen in die Grundlagenforschung rentieren sich in jedem Fall, auch in Hinblick auf die positive Auswirkung auf das Wirtschaftswachstum. Bei der Grundlagenforschung kann auch ein kleines Land wie Österreich mit hohem Bildungsniveau punkten.
Die ALGO wird von Google gesponsert. Ist das nicht seltsam?
Google hat keinen Einfluss auf unser Programm, was schon die Keynote durch einen Apple-Forscher zeigt. Dass Google hier Grundlagenforschung unterstützt, die unter Open-Access-Bedingungen veröffentlicht wird, ist positiv. Freikaufen von Fehlern, die das Unternehmen vielleicht bei der Handhabung seiner Algorithmen gemacht hat, kann sich Google so aber natürlich nicht.
Zur Person:
Stefan Szeider lehrt und forscht an der Fakultät für Informatik an der TU Wien. Er leitet die Algorithms and Complexity Group und das Vienna Center for Logic and Algorithms. Davor war er mehrere Jahre in Kanada und Großbritannien tätig. 2009 wurde seine Arbeit mit einem ERC Starting Grant ausgezeichnet. Seine Forschungsschwerpunkte beinhalten die Entwicklung und Analyse effizienter Algorithmen für Probleme der künstlichen Intelligenz.
Kommentare