Eigentlich soll er für uns Frühstück machen, Colas öffnen, Nüsse knacken. Doch während des Besuchs an der Universität Zürich kann sich der Unitree G1 nicht einmal selbst hinsetzen.
Angepriesen wird er wie ein Star: Es sei das erste Mal, dass er in die Schweiz komme. Er verbringe hier nur ein paar wenige Stunden, sehen könne man ihn an der Uni Zürich und an der ZHAW. Danach reise er gleich weiter.
Und jetzt liegt er da: der Unitree G1, der humanoide Roboter der gleichnamigen Firma. Er liegt auf dem Rücken auf dem Steinboden im Lichthof des Campus Oerlikon der Universität Zürich. Komplett reglos, Arme und Beine scheinbar entspannt. Nur das Licht am Kopf zeigt, dass er einsatzbereit ist.
Für die Demo müssen zusätzliche Stühle herangeschafft werden, trotzdem gibt es nicht ausreichend Platz für alle Zuschauer. Dutzende drängen sich stehend um den abgesperrten Bereich der improvisierten Bühne. Alle wollen ihn sehen, den ersten einigermassen erschwinglichen Roboter, der so aussieht wie ein Mensch.
Die Hoffnungen, die auf Geräte wie Unitree gesetzt werden, sind gross. Roboter wie er sollen uns irgendwann einmal das Frühstück ans Bett bringen, die Wohnung putzen, Pakete austragen, in der Industrie arbeiten – all die Tätigkeiten für den Menschen übernehmen, die keinen Spass machen. 16 000 Dollar kostet Unitree, also etwa so viel wie ein Occasion-Kleinwagen. Aber was wäre, wenn man für diesen Preis niemals mehr bügeln, kochen, aufräumen müsste?
Dann beginnt die Demo. Der Roboter dreht die Arme, Wasif Noor, der Ingenieur, der für Unitree die Veranstaltung durchführt, hat auf seinem Controller den Befehl zum Aufstehen gegeben. Nun drückt der Roboter die Ellenbogen in den Boden und hebt den Oberkörper an. Mit einem metallischen Klacken stösst er die Unterarme in den Steinboden, streckt dann die Arme durch, stösst sich mit den Händen vom Boden ab. Dann kommt er auf den Füssen zu stehen.
Die Leute raunen, einer stösst ein überraschtes «Wow, das war aber schnell» aus, ein anderer sagt: «Wie süss der ist!» Dann hebt der 130 Zentimeter grosse Unitree G1 die Hand und winkt dem Publikum zu. Die Menschen lachen, winken zurück, ein schöner Moment der Mensch-Maschinen-Interaktion.
Nun ist das Publikum aufgewärmt, bereit für mehr. Viele der Zuschauer haben wohl das Marketingvideo von Unitree im Kopf, in dem der Humanoide Nüsse knackt, eine Cola öffnet, einen Toast in einer Pfanne zubereitet.
Doch was im Marketingvideo einfach aussieht, läuft bei der Demo nicht ganz so reibungslos. Der Roboter kann zwar gehen und rennen, führt aber keine Funktionen mit den Händen aus, abgesehen vom Winken. Auch die restlichen grobmotorischen Fähigkeiten funktionieren schlechter als erwartet.
Zum Beispiel das Hinsetzen. Im Marketingvideo lässt sich Unitree scheinbar entspannt auf eine Bank plumpsen. An der Demo wird ein Stuhl zur Bühne geschafft, der Roboter beugt die Beine in Sitzposition, aber Wasif Noor muss ihn an einer Schlaufe am Rücken packen und ihn mit menschlicher Kraft auf den Stuhl hieven. Auch beim Aufstehen muss er ihn halten, damit er nicht umkippt.
Und schliesslich geht Unitree doch noch zu Boden. Im Marketingvideo schlägt ein Mensch dem Roboter mit der Faust auf die Brust und tritt ihn mit dem Fuss in den Rücken, ohne dass er dabei umfällt. An der Demo erhält er mehrere Stösse in den Rücken, stolpert zwar leicht, aber findet die Balance gleich wieder. Bei einem Stoss gegen die Schulter kippt er allerdings seitlich um, Metall klappert auf dem Steinboden, die Menschen im Publikum schnappen nach Luft, recken die Köpfe, vergewissern sich, dass der Roboter nicht beschädigt ist.
Kein gesunder Menschenverstand
Das zeigt: Zwischen Marketing und echten Fähigkeiten klafft bei humanoiden Robotern noch eine grosse Lücke. Und das dürfte sich nicht so schnell ändern. Davide Scaramuzza, Professor für Robotik an der Universität Zürich, hält an der Demo ein kurzes Referat über den aktuellen Stand der Robotik. Er geht davon aus, dass es noch Jahrzehnte dauern wird, bis humanoide Roboter im Haushalt eine Hilfe sein werden. «Die Hardware ist da. Aber Roboter müssen ihre Umwelt verstehen lernen und eine Art gesunden Menschenverstand entwickeln. Davon sind wir noch sehr weit weg.»
Tatsächlich ist für Roboter schwierig, was für Menschen selbstverständlich erscheint. Die Fähigkeit, ein Leintuch von einem Abwaschlumpen zu unterscheiden, erfordert viel Kontextwissen. Festzustellen, ob der Lumpen nass ist und zum Trocknen aufgehängt werden soll oder schmutzig ist und gewaschen werden muss, erfordert Tastsinn und Sehfähigkeit. Das würden Roboter noch lange nicht können, sagt Scaramuzza.
Roboter verstünden ausserdem nicht, dass eine heisse Pfanne nicht auf ein Plastikgeschirr gestellt werden dürfe oder dass elektronische Geräte nicht mit Wasser gewaschen werden sollten. «Robotern Wissen über die Welt und angemessene Reaktionen beizubringen, ist eine schwierige Aufgabe», sagt Scaramuzza.
Die Demo im Lichthof ist inzwischen zu Ende, Unitree wird von Schaulustigen umringt, posiert regungslos für Dutzende Selfies. Wasif Noor sagt abseits der Bühne, der Roboter sei noch in Entwicklung und werde ab Januar 2025 verkauft. Anwendungsbereiche seien unzählige möglich, die Kunden müssten den Roboter aber nach dem Kauf noch für sein spezifisches Einsatzgebiet trainieren.
Oft sind Räder nützlicher als zwei Beine
Der Robotik-Experte und ETH-Professor Roland Siegwart sieht den Anwendungsbereich von humanoiden Robotern heute noch äusserst limitiert. «Das meiste ist wohl einfach Marketing», sagt er im Gespräch. Siegwart ist Mitglied des Verwaltungsrats der NZZ.
Roboter seien heute vor allem an Orten nützlich, die für Menschen schwer erreichbar und gefährlich seien, zum Beispiel in Minen weit unter der Erdoberfläche, sagt Siegwart. Dort eigne sich unter Umständen aber ein Roboter, der auf Raupen fahre, besser als einer mit zwei Beinen.
Für andere Arbeiten wie Inspektionen von Gebäuden seien Roboter auf Rädern oder solche mit vier Beinen bereits gut geeignet. Zweibeinige, menschenähnliche Roboter bringen da wenig Mehrwert. «Humanoide Roboter lösen aber immer wieder viel Sympathie bei Menschen aus», sagt Siegwart, das sei nichts Neues, sondern komme in Hype-Zyklen.
Tatsächlich gab es kurz nach der Jahrtausendwende eine Zeit, in der mehrere Hersteller an humanoiden Robotern forschten. Damals stellten Toyota, Sony und Honda Humanoide vor. Allerdings setzten sich die Geräte in keinem Anwendungsbereich durch, ihre Entwicklung wurde längst eingestellt.
Roboter lernt beim Hinfallen
Ähnlich könnte es auch diesmal sein. Und trotzdem können heutige Humanoide etwas entschieden besser als ihre Vorgänger: die Balance halten. Anders als noch vor wenigen Jahren können heutige menschenähnliche Roboter auf unebenem Terrain laufen, in die Luft springen, Schläge und Fusstritte ausgleichen, ohne hinzufallen.
Dass das möglich ist, liegt an einer neuen Art, sie zu programmieren. Siegwart erklärt: «Bis vor rund zehn Jahren hatten Menschen die Bewegungsabläufe von Robotern vordefiniert. Jede Bewegung war einprogrammiert.» Heute sei das anders, Roboter könnten mit maschinellem Lernen arbeiten und so viel flexibler werden.
Dafür gibt es zwei grundlegende Strategien: das Imitation-Learning und das Reinforcement-Learning. Beim Imitation-Learning macht ein Mensch einer Maschine immer wieder die gleiche Bewegung vor. Die Maschine kopiert den Menschen. So kann einem Roboter zum Beispiel beigebracht werden, wie er ein Stück Brot in einen Toaster steckt.
Beim Reinforcement-Learning, das sich in den vergangenen Jahren immer mehr durchgesetzt hat, braucht es kein menschliches Vorbild. Man lässt die Maschine selbst ans Ziel kommen. Sie lernt mit Versuch und Irrtum, was möglich ist und was nicht. Soll der Roboter beispielsweise einen Stoss in den Rücken abfedern, ohne umzufallen, muss er lernen, die Kraft einzuschätzen und eine ausgleichende Bewegung mit den Beinen zu machen. Im Lernprozess wird der Roboter zwar Hunderte Male zu Boden fallen. Aber mit jedem Mal lernt er, sich besser anzupassen.
Um schlimme Schäden am Roboter möglichst zu vermeiden, verwenden Forscher für den Lernprozess nach Möglichkeit auch Computersimulationen: In einer Art Computerspiel lernen die Betriebsprogramme der Roboter, wie sie sich bei welcher Krafteinwirkung verhalten müssen. Dass solche Simulationen mit Hunderttausenden von Robotern möglich geworden seien, liege vor allem daran, dass heute mehr Rechenleistung zur Verfügung stehe, sagt Siegwart.
Ausserdem habe man neuerdings sehr reale Umgebungsmodelle, dank denen sich Interaktionen zwischen den Robotern und der Umwelt korrekt simulieren liessen. «Bis vor wenigen Jahren waren die Computer noch zu langsam, um Stösse in Echtzeit ausgleichen zu können. Heute geht das», sagt Siegwart.
Und Unitree G1, der Roboter selbst? Der wurde inzwischen ausgeschaltet, Wasif Noor verstaut ihn in einem grossen Koffer. Dazu dreht er die Hüfte des Roboters in die Transportposition, verstaut die Arme, faltet die Beine, schnallt ihn an eine Schaumstoffhülle. Dann klappt er den Koffer zu und schliesst den Reissverschluss. Der Star reist weiter.