User Interface: „Das Wichtigste ist Weglassen“
Dieser Artikel ist älter als ein Jahr!
futurezone: Wenn Sie einen Blick zehn oder auch 20 Jahre in die Zukunft werfen, wie werden Benutzeroberflächen auf unseren Computern dann aussehen? Werden sie sich stark von heutigen User Interfaces unterscheiden oder geht es künftig nur noch um Details?
Peter Purgathofer: Beides. Die Oberflächen „auf unseren Computern“ werden recht ähnlich gestaltet und strukturiert sein, ein bisschen nach dem Motto "never change a winning team". Die Oberflächen auf allen anderen Geräten werden radikal verschieden sein. Auf Tablets sind die Interaktionsformen schon jetzt anders. Mit der langsam stattfindenden „diffusion“ des Computers – dieser wächst heute auch in die einfachsten Alltagsgeräte wie Toaster, Kühlschrank oder Rucksack ein – werden jeweils neue Interaktionsformen entstehen (müssen).
Welche Trends sehen Sie, die sich künftig durchsetzen könnten? Welche Rolle wird etwa Sprache spielen?
Mit Geräten sprechen ist sehr schwierig und das wird es vermutlich noch lange Zeit bleiben. In abgeschlossenen Domänen – zum Beispiel thematisch begrenzte Auskunftssysteme – werden durchaus beeindruckende Systeme möglich sein, vor allem über das Telefon. Das allgemeine „Mit-einem-Computer-reden-als-wäre-er-ein-Mensch“ ist nicht nur technologisch in weiter Ferne, es ist auch für viele Menschen gar nicht wünschenswert. Jedes Problem, sei es auch nur ein Missverständnis oder ein Bedienungsfehler, würde so noch öffentlicher und noch peinlicher und erzeugt potenziell noch mehr Stress. Das wollen die meisten nicht.
Technisch ist vieles machbar, was gleichzeitig aber nicht immer auch Benutzerfreundlichkeit bedeutet. Sind die User für wirklich revolutionäre Interfaces – hart formuliert – schlichtweg zu dumm?
Nein, im Gegenteil. Wirklich revolutionäre Interfaces schaffen es, komplexe Tasks ohne Konzentration auf die Bedienung zu erschließen. Das wichtigste beim Design ist das Weglassen. Gutes Design ist das Erreichen einer perfekten Balance zwischen dem Notwendigen und dem Ausreichenden. Die meisten User sind lediglich für schlecht gestaltete, unstrukturierte, überladene und verwirrende Interfaces „zu dumm“. Mit solchen können dann eben nur Techniker arbeiten, leider wird aber oft umgekehrt argumentiert.
Wenn man über kommende Interfaces berichtet, wird häufig das „Minority Report“-Beispiel genannt. Ist so etwas aber überhaupt praktikabel und effizient zu bedienen?
Schwer zu sagen. Momentan wird das meiste an Interaktion mit Muskelgruppen initiiert und betrieben, die wir sehr gut unter Kontrolle haben und mit wenig Aufwand bewegen können. Wer schon einmal auf einem Wii Balance Board gestanden ist, der weiß, wie schwierig es sein kann, mit der Verlagerung des Schwerpunktes ganz einfache Dinge zu steuern. Interfaces wie in „Minority Report“ verlangen den Einsatz des ganzen Körpers für die Interaktion. Will ich das, wenn es auch mit weniger Bewegung geht und in welchen Situationen wäre das gut? Ich würde sagen, dass das System im Film hauptsächlich den dramaturgischen Anforderungen der Nachvollziehbarkeit und Dramatisierung des Inhalts dient. Nur dort, wo so etwas auch gefordert ist, würden solche Interfaces dann Sinn machen.
Was hat sich mit dem Durchbruch von Touchscreens (Smartphones, Tablets) verändert und wie ist es ausgerechnet Apple gelungen - Touchscreens gab es auch vor iPhone und iPad schon - diese Art der Bedienung so erfolgreich zu machen?
Touchscreens haben eine neue "Metaphorisierung" der Interaktion mit sich gebracht. Während am Desktop noch eher abstrakte Interface-Metaphern wie „Dokument“, „Ordner“ oder „Mistkübel“ dominiert haben, setzen sich jetzt immer mehr Analogien durch, die sich der Berührung durch einen oder mehrere Finger anbieten. Die Twitter-App am iPad ist ein ausgezeichnetes Beispiel für diese Veränderung - hier werden überlappende Streifen von Information manipuliert, einzelne Einträge herausgenommen und aufgeklappt.
Apple gelingt es immer wieder, hier Maßstäbe zu setzen, weil sie eine komplett andere Firmenkultur als andere haben. Design im Interesse der Nutzer - auch wenn das immer wieder umstritten interpretiert wird - spielt hier eine zentrale Rolle. Reine Techniker und Ingenieure spielen bei Apple hingegen nahezu keine (entscheidende) Rolle.
Führt der Trend zu Berührungsoberflächen – es werden nur mehr lustige, bunte Symbole (Apps) angetippt – zu einer Infantilisierung der Gesellschaft, muss in Zukunft alles nur mehr immer simpler werden?
Simplizität war immer schon eine gute Eigenschaft. sie hat uns geholfen, aus dem technischen Monster Automobil etwas zu machen, was mit wenigen Elementen von fast allen genutzt werden kann. Vor dem Eindringen des Computers waren viele Technologien – etwa Fotoapparate, Fernseher oder Radios - bereits auf ein Minimum geschrumpft worden. Reife Produkte waren immer schon einfach, und zwar nicht im Sinne einer Verdummung, sondern so, dass sie für viele Menschen eine praktisch verwendbare Bereicherung dargestellt haben. Auf der anderen Seite macht den "Experten", den "Nerds" niemand ihre Komplexität streitig. Wenn man aber meint, dass das Meistern dieser Komplexität durch alle ein Qualitätsmerkmal einer "intelligenten" Gesellschaft ist, dann widerspreche ich energisch.
Wenn man, wie bei Touchscreens, viel mit Symbolen arbeitet, machen kulturelle Unterschiede Probleme? Etwa wenn in Europa ein Symbol eine andere Konotation hat als beispielsweise in Afrika?
Natürlich, das kennen wir ja selber von der amerikanischen "Mailbox", die man bei uns nur aus Filmen kennt. Metaphern wie „Schreibtisch“ oder „Dokument“ machen in manchen Ländern keinen Sinn, weil die Nutzer dort nicht einmal die Originale kennen. Das ist aber nur bedingt von Bedeutung. Denn diese Metaphern sind nicht nur für die Nutzer, sondern vor allem auch für die Entwickler wichtig, damit sie eine Struktur haben, anhand derer sie ihre Software organisieren und gestalten können. Das Ergebnis wird automatisch besser sein, als wenn man es einfach "irgendwie" organisiert, und damit auch für jene Nutzer tauglicher, die die originale nicht kennen.
Was ist aus Ihrer Sicht die Basis für ein gelungenes User Interface Design, woran müssen sich Entwickler zu allererst orientieren? Wie schwierig ist der Spagat zwischen Hardware und Software und worauf kommt es letztlich eher an?
Als erstes sollten sich Entwickler an den zukünftigen Nutzern orientieren, und daran, was diese wollen und brauchen (was nicht unbedingt dasselbe ist). Aus den nebulösen, unreifen und oft sogar widersprüchlichen Aussagen, Bedürfnissen, Hoffnungen und Ängsten typischer Nutzer einer geplanten Software ein gutes Design zu machen, ist heute die hohe Kunst der Systementwicklung. Alles andere ist zwar kompliziert, aber machbar, und der Spagat zwischen Hard- und Software hat sich, brutal gesagt, dem Ergebnis dieser Gestaltungsarbeit zu unterwerfen.
Welche Bedienoberflächen haben sich heute bereits überholt? Würden Sie sagen, es gab in der Vergangenheit Entwicklungen, die sich zwar ein Stück weit durchgesetzt haben, letztlich jedoch gefloppt sind?
Das ist eine schwierige Frage, weil solche Dinge auch schon wieder zurückgekommen sind. Touchscreens waren in den 90er-Jahren mal groß da, als man Selbstbedienungsgeräte in die Foyers der Banken gestellt hat. Dann sind sie verschwunden, und heute feiern sie eine Renaissance. Der Light Pen war das wesentliche Eingabegerät des ersten wirklich interaktiven Computersystems (SAGE), dann ist er in den 80ern bei den Graphic Workstations kurz aufgetaucht, später wieder (ohne Light) bei den PDAs und im Moment ist er "out". Es ist aber klar absehbar, dass er im Zuge raffinierterer Tablets wiederkommen wird. Spannender wären aber vielleicht Software-Ansätze wie „Microsoft BOB“, „Magic Cap“ von General Magic, oder „Clippy“, die lästige Büroklammer. Hier ist einiges probiert und vieles vergessen worden.
Was haben Computerspiele für die Weiterentwicklung von User Interfaces geleistet – Stichwort Bewegungssteuerung (Kinect) – wird man dieses Konzept künftig vermehrt auch in anderen Bereichen finden?
Computerspiele sind in vielen Fällen die Petrischüssel künftiger Interaktion. Die Abhängigkeit moderner Interfaces von guter Grafikleistung kommt nur von der Verbreitung der entsprechenden Hardware durch Computerspiele, aber auch viele Software-Interaktionsmechanismen (zum Beispiel Gesten) wurden in Spielen eingesetzt, bevor sie in den Mainstream diffundierten. Computerspiele sind in vielerlei Hinsicht wesentliche Vorreiter. Das heißt aber nicht, dass es nicht auch Entwicklungen gibt, die es niemals in den "Desktop-Bereich“ schaffen. Bei allem Enthusiasmus haben es die Konsolen-Controller bis hin zur Wii-Remote nur bis in den Research-, Hobby- und Bastelbereich geschafft. Dasselbe vermute ich auch für Kinect.
Wie weit entwickelt ist der Bereich der Gedankensteuerung, wann wäre es Ihrer Einschätzung nach möglich, dass sich diese Technologie im Massenmarkt etabliert?
Zu arbeiten bedeutet in den meisten Fällen, zwischen konzentriertem Arbeiten und unkonzentriertem Herumschauen oder Probieren zu wechseln - manchmal schnell und oft, dann wieder nur selten. Davon sind wir mit den neuen Systemen wie Gedankensteuerung noch sehr weit entfernt. Ich sehe zwar viele interessante Demonstrationen in diesem Bereich, aber meine Zuversicht für die Praxistauglichkeit im Alltag ist noch sehr niedrig.
Wenn es nach Ihrem persönlichen Geschmack ginge: Wie würde das perfekte User Interface aussehen?
Das perfekte User Interface für mich wäre ein Zauberstab: Do what I want. Mit einem Zauberstab hat man die ultimative Kontrolle.
Zur Person:
Peter Purgathofer ist Professor an der Technischen Universität Wien, am Institut für Gestaltungs- und Wirkungsforschung. Er studierte Informatik und hat sich infolge im Wesentlichen Desginfrage innerhalb der Informatik gewidmet. Seine Kern-Lehrveranstaltung widmet sich dem Thema "User Interface Design". Seit Anfang 2005 ist Purgathofer im Fachgebiet "Interaktive System" habilitiert. Im Jahr 2000 war er gemeinsam mit einigen Kollegen Gewinner beim "Prix Ars Electronica"für das Projekt "telezone".
Kommentare