Wie lernen humanoide Roboter?
Humanoide Roboter erobern seit einigen Monaten die Fabrikhallen. BMW setzt in einer Autofabrik in Spartanburg, South Carolina, seit August Figure 02 ein. Videos zeigen, wie er dort Autoteile herumträgt und dann in Autos einsetzt.
➤ Mehr lesen: Im BMW-Werk arbeiten nun menschenähnliche Roboter
Auch von Teslas Optimus, ebenfalls ein aufrecht auf 2 Beinen gehender, menschenähnlicher Roboter, hat man schon mehrere Videos gesehen, die dessen Lernfortschritte zeigen. Im Laufe der Monate hat er laut Tesla vieles dazugelernt.
Er geht selbstständig und souverän durch die Räume der Gigafactory, schlichtet Batterien in Kisten und trägt diese herum. Optimus reagiert sogar auf menschliche Gesten wie Händeschütteln.
Fabrikarbeiter, Butler und Künstler
Optimus, den Tesla ab 2027 verkaufen will, soll künftig sogar zu einer Art Butler für Privathaushalte werden. Humanoide Roboter sollen aber nicht nur als Arbeiter in der Fabrik dienen und Haushaltshilfe sein: Schon jetzt sind sie in Jobs tätig, die eigentlich sehr menschlich sind.
Im November wurde etwa ein Gemälde, das ein humanoider Roboter gemalt hat, im New Yorker Auktionshaus Sotheby’s für 1,08 Millionen Dollar versteigert. Das Gemälde der Roboterkünstlerin Ai-Da ist ein unheimliches Portrait des KI-Vordenkers und Informatikers Alan Turing. Laut Aidan Meller, Besitzer von Ai-Da, soll es dazu einladen "über die gottähnliche Natur der KI und der Computertechnik nachzudenken".
➤ Mehr lesen: Humanoider Roboter malte Bild, das über 1 Million Dollar einbrachte
Was steckt im "Gehirn" des Roboters?
Solche Gott-Vergleiche hört man öfter, wenn es um Roboter oder Künstliche Intelligenz geht. "Bei solchen Vergleichen bin ich immer vorsichtig, vor allem, wenn in starken Extremen in den Bereichen KI und Robotik gesprochen wird", erklärt die Roboterexpertin Martina Mara von der JKU Linz der futurezone: "Das sind menschliche Artefakte, also Dinge, die wir Menschen uns selbst überlegt haben. Außerdem könnten wir jederzeit den Stecker ziehen."
In den Hüllen aus Metall und Plastik stecken keine Gehirne, sondern leistungsstarke Computer und KI-Algorithmen, die dem Roboter im Zusammenspiel die "menschenähnlichen" Fähigkeiten verleihen. "Es gibt Aspekte, die mit unserem Lernen vergleichbar sind. Wir lernen durch Erfahrung, durch Beobachten von anderen Personen", erklärt Mara.
Beim maschinellen Lernen funktioniere das ähnlich - die Grundstrategien des Lernens seien durchaus vergleichbar. "Es gibt aber große Unterschiede - eine KI möchte etwa von sich aus nichts lernen. Ihr wird klar vorgegeben, dass sie lernen soll und was sie lernen soll", erklärt Mara. Wir Menschen hätten hingegen Motivation, Entscheidungsfreiheit und könnten uns selbst Lernziele stecken.
Lernen durch "Zuschauen"
Meistens werden bei den Robotern verschiedene KI-Ansätze kombiniert, deren Basis immer Algorithmen sind, die dazulernen können. Ein solcher Ansatz nennt sich etwa "Imitation Learning".
Dabei lernen die Computerprogramme im Roboter durch Nachahmung. Etwa indem die Kamera im Roboterkopf filmt, wie ein Mensch Kisten trägt. Wie Kisten aussehen, haben die Algorithmen schon vorher gelernt – aus großen Sammlungen an Video- und Bildmaterial, die mit Beschriftungen versehen sind.
Katzen und Hunde unterscheiden
Ein einfaches Beispiel: Man hat einen ganzen Haufen Bilder von Katzen und Hunden. Die schaut sich der Computer genau an und lernt so, dass Katzen spitze Ohren und kürzere Beine haben, während Hunde meistens größer sind und oftmals rundere Ohren haben. All diese Erkenntnisse speichert der Computer als gelerntes Wissen ab. Sieht er dann ein neues Bild von einem Tier mit spitzen Ohren und kurzen Beinen, schließt er daraus, dass es sich um eine Katze handeln muss. Macht er Fehler und sagt ihm ein Mensch das, kann der Algorithmus durch seine Lernfähigkeit darauf reagieren und den Fehler beim nächsten Mal nicht mehr machen – er lernt durch Erfahrung. Schließlich sind Wiederholungen der Schlüssel für den KI-Lernfortschritt.
Während KI-Chatbots wie ChatGPT vor allem aus Texten lernen, die sie gelesen haben, haben die Computer im Roboter viel mehr Möglichkeiten, Informationen aus ihrer Umgebung zu verarbeiten. Neben Kameras, mit denen sie ihre Umgebung filmen können, nutzen sie auch Sensoren und Mikrofone. Diese Signale kombinieren sie miteinander.
Neben virtuellen Umgebungen können Roboter auch von simulierten Umgebungen lernen. Das macht man oft, bevor man sie in die reale Welt entlässt. Also im Falle einer Fabrik: Hier werden Roboter wie Figure 02 und Optimus zunächst mit einer Computersimulation einer echten Fabrik trainiert, wo sie ihre Umgebung kennenlernen. Dadurch haben sie Grundwissen erlangt, bevor sie die echte Fabrikhalle betreten und Echtzeitdaten mit Kameras, Sensoren und Mikrofonen einsammeln.
Ai-Da wäre in der Fabrik völlig nutzlos
Derzeit sind Roboter meistens für eine bestimmte Aufgabe trainiert. Würde man Ai-Da ins BMW-Werk bringen, wäre die Roboterkünstlerin dort keine Hilfe. Denn sie wurde vor allem mit Daten trainiert, die es ihr ermöglichen, ihre künstlerischen Fähigkeiten und eine Persona als Künstlerin zu entwickeln. Zu diesen Daten zählen etwa Bilder von Kunstwerken und Informationen zu Stilen wie Impressionismus und Pop Art.
Ihre Algorithmen sind auf künstlerische Kreativität ausgerichtet. Sie entscheidet, welche Formen und Farben ein Bild haben soll. Außerdem lernt Ai-Da durch Feedback und kann etwa ihre Strategie neu ausrichten, wenn ihr jemand sagt, dass ein Bild Kunstkritikern weniger gefällt als ihre bisherigen.
Keine Alleskönner
"In vielen Köpfen wabert das Bild des Alleskönner-Serviceroboters herum, wie der Haushaltsroboter Rosey von The Jetsons aus dem Fernsehen der 60er-Jahre. Leider sehe ich das momentan nicht. Jede neue Umgebung, jedes Handling eines neuen Objekts, erfordert wahnsinnig viel Lernerfahrung für Roboter." Menschen könnten sich viel schneller an neue Umgebungen anpassen.
"In Marketing-Videos für humanoide Roboter werden häufig völlig überzogene Erwartungen geschürt", meint Mara. Diese seien oft unter Laborbedingungen aufgezeichnet, wo der Roboter wenig schlecht interpretierbare Signale aufnimmt.
➤ Mehr lesen: Was humanoide Roboter jetzt schon können und wann sie uns ersetzen
Warum baut man Roboter, die aussehen wie Menschen?
Warum braucht man überhaupt Roboter, die Menschen ähnlich sind? Es könnten ja andere Formen viel praktischer sein, so könnte man den Maschinen 5 Arme statt 2 geben. Das liege unter anderem daran, dass die meisten Menschen eine ganz bestimmte Vorstellung eines Roboters haben, erklärt Mara: "Als Menschen nehmen wir uns selbst gerne als Maß für unsere Ideen. Ist es sinnvoll? Manchmal schon, in vielen Fällen aber auch nicht."
In Fabrikhallen und der Industrie etwa könnten sie sinnvoll sein, weil diese Umgebungen derzeit oft für menschliche Körper gemacht seien, etwa die Höhe der Arbeitstische. Auch bei der Zusammenarbeit mit Menschen gebe es Vorteile: "Bei humanoiden Robotern nimmt man automatisch an, dass die Muster, wie man sonst mit Menschen kommuniziert, auch beim Roboter funktionieren." Damit sei die Begegnung mit humanoiden Robotern intuitiver, als etwa mit einer 5-armigen Maschine mit Kettenantrieb.
Andererseits gebe es auch viele Argumente gegen humanoide Roboter. "Etwa, dass man sich bei der Köperform auf etwas beschränkt, was es schon gibt. Menschen haben außerdem auch Einschränkungen, etwa können wir nicht durch die Fabrikhalle fliegen", so Mara. Außerdem würden humanoide Roboter von Menschen häufiger als bedrohlich wahrgenommen als andere Formen.
Frag die futurezone
In der Rubrik "Frag die futurezone" recherchieren und beantworten wir ausgewählte Fragen zu Tech-Themen für euch.
Stellen könnt ihr sie mit einer E-Mail an die Adresse redaktion@futurezone.at - Betreff: "Frag die futurezone", ihr könnt uns aber auch gern via Social Media (Facebook, Instagram, X) kontaktieren.
Kommentare