© Nadja Meister

TU Wien

Algorithmen bestimmen unser Leben

Jeder, der einmal bei Amazon ein Buch gekauft hat, kennt das: die Empfehlungen sind oft dermaßen verlockend, dass der Warenkorb plötzlich um einige Artikel länger wird. Aber wieso scheint Amazon unsere Vorlieben dermaßen gut zu kennen? Der Grund dafür ist simpel – Algorithmen, also clevere Computerprogramme. Nahezu alles, was online erscheint, wird durch teilweise simple, oft aber auch sehr durchdachte Algorithmen bestimmt. Algorithmen dienen aber nicht nur zur Optimierung von Webseiten. Unter anderem helfen sie im Zusammenspiel mit der formalen Logik auch bei schwierigen Aufgaben wie Bugs in anderen Computerprogrammen zu finden oder eine Routenplanung zu optimieren. Kaum jemandem ist bewusst, wie viele Bereiche unseres Alltags durch Algorithmen bestimmt werden.

Stefan Szeider und Helmut Veith sind in diesem Bereich Experten. Die beiden Professoren forschen seit zwei Jahren an der TU Wien an den logischen Grundlagen und der Weiterentwicklung dieser Algorithmen. Hier zählt die TU Wien nach eigenen Angaben bereits neben der britischen University of Oxford zu einem der “Big Player” in Europa. Damit das auch in Zukunft so bleibt, wurde nun ein neues Forschungszentrum, das Vienna Center for Logic and Algorithms, gegründet. Das soll die Forschung der TU Wien international besser präsentieren können und vereint die Arbeitsgruppen von Szeider, Veith und vier weiteren Professoren unter einem gemeinsamen Dach. Für die Eröffnung konnte auch Turing-Preisträger Edmund M. Clarke gewonnen werden, dem diese Woche auch die Ehrendoktorwürde der TU Wien verliehen wurde.

Die Forschungen am VCLA konzentrieren sich auf drei Bereiche: Verifikation, Wissensrepräsentation und Constraint Satisfaction. Bei der Verifikation geht es um die Suche nach Fehlern in Computerprogrammen. Mit der Hilfe von Wissensrepräsentation sollen unter anderem Computer selbstständig Informationen recherchieren – um ähnlich wie IBMs Watson, der sich bereits erfolgreich in Jeopardy versuchte, mit Alltagswissen umgehen zu können. Bei Constraint Satisfaction geht es um die Lösung von Problemen, die man durch einfaches Durchprobieren nicht lösen kann, weil es zu viele Möglichkeiten gibt. Ein Beispiel hierfür sind Zugfahrpläne. Im Gespräch mit der futurezone sprachen die beiden darüber, wie Algorithmen unser Leben dominieren und wieso Algorithmen auf Finanzmärkten nicht eingeschränkt werden.

futurezone: Wo werden ihre Algorithmen denn eigentlich angewandt?
Stefan Szeider: Im Prinzip basiert jeder Mikroprozessor auf Algorithmen. Das sind oft simple Algorithmen, manchmal auch wieder gar nicht so simple, zum Beispiel im Auto.

Helmut Veith: Ein modernes Auto hat ungefähr 70 Mikroprozessoren, die über ein Netzwerk zusammenarbeiten müssen. Daher ist eine gründliche Überprüfung hier besonders wichtig – im Fachjargon nennen wir das Verifikation. Einen gelegentlichen Fehler in der Stereoanlage kann man vielleicht noch tolerieren, aber bei der Lenkung oder Motorsteuerung wird es kritisch. Und es kann auch gefährlich sein, wenn nach einem Unfall die elektrischen Fensterheber nicht mehr funktionieren.

Und Constraint Satisfaction?
Veith: Diese Methoden finden Sie überall dort, wo wertvolle Ressourcen möglichst effizient genutzt werden sollen. Nehmen Sie z.B. Schicht- oder Produktionspläne. Ein Kollege an unserem Institut hatte vor einigen Jahren ein Projekt in der Stahlproduktion, wo es komplexe Abhängigkeiten gibt. Ich kann zum Beispiel mit demselben Gerät zuerst einen hochwertigen Stahl mit wenig Verunreinigungen produzieren und gleich danach einen weniger hochwertigen - umgekehrt hingegen ist es schwierig. Mit Hilfe geeigneter Constraint Satisfaction Algorithmen kann man die Ausrüstung und die Kosten optimieren.

Müssen wir uns vor Algorithmen fürchten?
Veith: Nein. Aber es stellen sich zunehmend schwierige moralische und rechtliche Fragen, wenn wir intelligente Computerprogramme entwickeln, die dann verantwortungsvolle menschliche Aufgaben übernehmen. Wenn ich zum Beispiel ein Auto von einem Computer einparken lasse und es kommt ein unvorsichtiger Fußgänger zu schaden, obwohl das Programm eigentlich alles richtig macht - wer ist Schuld? War es der Programmierer? Wenn ein komplizierter, wissenschaftlich-industrieller Prozess schief läuft, kann ich den Fehler oft nicht mehr an einer einzelnen Stelle fest machen.

Szeider: Man muss dazu aber anmerken, dass wir primär Grundlagenforschung betreiben. Dafür gibt es zwar unzählige Anwendungen, aber wir kommen in unserer täglichen Arbeit nicht so nahe an diese Anwendungen, dass sich die genannten moralischen Fragen stellen.

Aber trifft die Verantwortung der Algorithmen nicht auf fast jeden Bereich zu?
Veith: Natürlich, und das verursacht enorme Kosten. Nehmen Sie die Flugzeugindustrie, die bekannt ist für die sehr hohe Qualität ihrer Programme. Dort müssen die Programmierer jede Programmzeile ausführlich dokumentieren, programmieren deshalb extrem langsam, etwa eine Zeile pro Stunde - also knapp 40 pro Woche. Das ist extrem teuer, aber dafür sind die Flugzeuge auch sehr sicher. Die meisten anderen Industrien können sich das im Wettbewerb einfach nicht leisten. Unsere Verifikations-Werkzeuge helfen nun dabei, dass ohne erhöhten Personalaufwand mehr Fehler entdeckt werden können und Software verantwortungsvoller erstellt werden kann.

Der Flash Crash 2010, an dem die amerikanischen Börsen teilweise um bis zu neun Prozent einbrachen, soll angeblich auch auf Algorithmen zurückzuführen sein, die automatisch Käufe und Verkäufe durchführen können - mittlerweile macht dieses “Algo Trading” 50 Prozent der Trades aus. Halten Sie das noch für moralisch vertretbar?

Veith: Nein, ich halte das für schädlich und glaube auch, dass die Informatik Lösungen entwickeln könnte, um das besser zu machen. Das Grundproblem dürfte sein, dass man extrem schnelle Käufe und Verkäufe durchführen kann und so aus minimalen Schwankungen enormen Gewinn machen kann. Das sind Phänomene, mit denen die Informatik an sich gut umgehen kann. Als Informatiker würde man etwa daran denken, geeignete Zeitfenster oder Taktraten zu definieren. Denn der technologische Wettbewerb für Trading Systeme sollte nicht die Entwicklung von Preisen und Aktien bestimmen. Hier gibt es technisch, mathematisch und auch algorithmisch sicher viele Möglichkeiten, aber man hat den Eindruck dass das nicht im Interesse der Entscheidungsträger in diesem Gebiet ist.

Facebook ordnet ja bereits unsere Beiträge auf der Basis von Algorithmen nach Wichtigkeit und versteckt teilweise auch “unwichtige” Nachrichten. Kann das sinnvoll sein?
Veith: Unser ganzer Umgang mit Informationen ist natürlich durch das Internet geprägt. Wir brauchen Filter – denn wir leben in einer globalisierten Informationswelt und können nicht alle Informationen konsumieren, die da erzeugt werden. Die Frage ist nur, ob wir selbst entscheiden können, wie gefiltert wird. Facebook gibt mir nur sehr beschränkte Möglichkeiten, selbst zu bestimmen was wichtig ist und was nicht. Technisch wäre das aber nicht schwierig. Da sind wir in einer ähnlichen Situation wie in der Finanzwirtschaft - das liegt einfach nicht im Interesse derjenigen, die damit gutes Geld verdienen.

Was erhoffen Sie sich, mit ihren Forschungen noch zu erreichen?
Szeider: Wir sind als Gruppe wissenschaftlich sehr erfolgreich, haben auch schon zahlreiche Preise bekommen und Drittmittelprojekte in großem Umfang eingeworben. Das Center for Logic and Algorithms soll diesen Erfolg, der über zwei Jahrzehnte gewachsen ist, weiter verstärken und noch sichtbarer machen. Sicher wäre es schön, wenn wir irgendwann auch einen Turing-Preisträger hervorbringen würden.

Da ja Alan Turing dieses Jahr seinen 100. Geburtstag gefeiert hätte - ist der Turing-Test ihrer Meinung nach überhaupt schaffbar?
Veith: Man könnte argumentieren, dass IBMs Watson ein guter Indikator dafür ist, dass das früher oder später passieren wird. Aber was bedeutet das schon? Man kann eigentlich nur statistisch erfassen, wie viele Leute sich von einem Computerprogramm wie lange zum Narren halten lassen - und darin werden Computer immer besser werden. Jemand, der sich in den Tiefen der menschlichen Psychologie auskennt, wird aber wahrscheinlich noch lange in der Lage sein, einen Computer von einem Menschen zu unterscheiden.

Wie groß ist dann der Sprung davon zur echten Künstlichen Intelligenz?
Veith: Das führt zu den prinzipiellen Fragen nach der Natur Künstlicher Intelligenz. Ist der Turing-Test ein geeigneter Nachweis für Künstliche Intelligenz? Vielleicht, denn ich kann mein Gegenüber im Turing-Test auch mit der Sprache Ingeborg Bachmanns konfrontieren, und da wird ein Computer sich sehr schwer tun. Die größten Kritiker der künstlichen Intelligenz, wie Hubert Dreyfus (What Computers can’t do), haben darauf hingewiesen, dass für eine wirkliche menschenähnliche Intelligenz auch ein menschlicher Körper mit Emotionen und echten menschlichen Erfahrungen wesentlich ist. Es ist schwer vorzustellen, wie sich eine künstliche Intelligenz auf eine spannende Weise mit Lyrik oder Rockmusik auseinandersetzen kann, wenn ihr die menschliche Erfahrung von Takt, Herzklopfen und Liebeskummer fehlt. Auf der anderen Seite kann dieselbe künstliche Intelligenz ein unentbehrlicher Assistent in der naturwissenschaftlichen Forschung sein.

Hat dir der Artikel gefallen? Jetzt teilen!

Kommentare