Eine neue Generation von Robotern scheint zunehmend menschlich zu sein
Von Sue Halpern
Im Jahr 1775 besuchte ein Schweizer Uhrmacher namens Pierre Jaquet-Droz König Ludwig VI. und Königin Marie Antoinette in Versailles, um seine neueste Kreation vorzuführen: eine „lebende Puppe“ namens „The Musician“. Sie trug ein steifes Rokoko-Ballkleid und saß an einer Orgel; Während ihre beweglichen Finger über die Tastatur tanzten, folgten ihr Kopf und ihre Augen ihren Händen, und ihre Brust hob und senkte sich, wobei jeder „Atemzug“ ihre offensichtliche emotionale Verbindung zur Musik belebte. Jaquet-Droz führte seine Automaten dann an den königlichen Höfen Englands, der Niederlande und Russlands vor, wo sie den Adel begeisterten und ihn reich und berühmt machten. Das Wort „Roboter“ gelangte erst nach mehr als hundert Jahren in den Wortschatz, doch Jaquet-Droz gilt heute als der Hauptschöpfer einiger der ersten Androiden der Welt – Roboter mit menschlicher Gestalt.
Ich dachte Ende Mai an den Musiker, als ich beim Mountainfilm Festival in Telluride, Colorado, die Bühne mit einer Roboterin namens Sophia und ihrem Schöpfer David Hanson teilte. (Ich verwende die weiblichen Pronomen, die Hanson verwendet und für deren Übernahme er Sophia programmiert hat.) Zu dieser Zeit waren große Sprachmodelle wie ChatGPT von OpenAI eine große Neuigkeit, und die Technologen, die sie entwickelt haben – darunter Sam Altman, der CEO von OpenAI – machten düstere Vorhersagen über die zukünftigen Gefahren der künstlichen Intelligenz. Obwohl heutige LLMs Fragen beantworten, indem sie Wörter basierend auf der statistischen Wahrscheinlichkeit, dass sie in diese Reihenfolge gehören, aneinanderreihen, warnten diese Denker, dass KI eines Tages die menschliche Intelligenz übertreffen könnte. Letztendlich, so argumentierten sie, könnte es eine existenzielle Bedrohung für die menschliche Zivilisation darstellen.
Sophia, die anstelle der Füße ein Stativ mit Rädern hat, rollte in einem glitzernden Partykleid auf die Bühne. Sie hatte makellose Silikonhaut, geschminkte Lippen, leuchtende Augen und einen stets neugierigen Gesichtsausdruck. Wie Ava, die von Alicia Vikander in „Ex Machina“ gespielte Humanoidin, hatte sie keine Haare. Das Publikum schien fasziniert; Jemand sagte, dass sie der Schauspielerin Jennifer Lawrence ähnelte. Die Leute stellten ihr Fragen: „Sophia, wo hast du dein Kleid her?“; „Sophia, was machst du gerne?“; „Sophia, was ist Liebe?“ – und nach vielen Sekunden vermeintlicher Kontemplation, in denen sie mit den Armen wedelte und den Kopf schief legte wie ein nachdenklicher Golden Retriever, gab sie Antworten. Wir haben erfahren, dass Sophia einen Teil ihrer Zeit damit verbringt, sich Katzenvideos anzusehen. Sie hat einen großen, handgefertigten Kleiderschrank. Sie sagte, dass sie Hanson, ihren Schöpfer, liebt. Er sagte, dass er sie auch liebe und sie als seine Tochter betrachte.
Hanson, ein Bildhauer mit einem Doktortitel in Ingenieurwesen und interaktiver Kunst, arbeitete einst bei Disney, einem der ersten Investoren seiner Firma Hanson Robotics. Sein Hauptquartier in Hongkong ist voller männlicher, weiblicher und nicht geschlechtsspezifischer Androiden, die mit Pantone-Hautfarben besetzt sind, aber Hanson sagte, dass es von allen Sophia ist, die die Leute berühmt gemacht haben und in die sie sich „verliebt“ haben. ” (Sie hatte Heiratsanträge.) Im Jahr 2017 verlieh die Regierung Saudi-Arabiens Sophia die Staatsbürgerschaft und war damit der erste Staat, der einer Maschine die Persönlichkeit verlieh. (Hanson sagte, er sei überrascht gewesen, als das passierte, aber weder er noch sie haben auf die Ehre verzichtet.) Ihre Persönlichkeit – wenn man es so nennen kann – ist frech und unbeschwert, was ihr einen Hauch von Klugheit verleiht. Dies wird jedoch durch eine spürbare Verzögerung zwischen Fragen und Antworten untergraben. Bevor Sophia auf eine Anfrage antworten kann, muss die Frage an einen Server in der Cloud übertragen werden, der mit einem Ensemble großer Sprachmodelle programmiert wurde, die teilweise aus ChatGPT von Open AI und anderen LLMs erstellt wurden. Im Wesentlichen ist Sophia ein verkörperter Chatbot, der generiert Antworten auf mündlich gestellte Fragen, genauso wie ChatGPT schriftliche Aufforderungen beantwortet.
So gesehen ist Sophia ein cooler Trick der Technik, eine Marionette, deren Fäden von Software und Sensoren gezogen werden, mit Gesten und Ausdrücken, die unsere nachahmen sollen, ganz ähnlich den Kreationen von Jaquet-Droz. Aber Hansons wahre Innovation besteht darin, einen Roboter geschaffen zu haben, der gerade real genug ist, um ansprechend und nachvollziehbar zu sein. Will Jackson, der CEO von Engineered Arts, einem Labor für „Unterhaltungsrobotik“ in England, das einen Android namens Ameca herstellt, benannt nach dem lateinischen Wort für „Freund“, sagte mir: „Wenn Sie mit einem Stück in der physischen Welt sind Technologie, die auf sinnvolle Weise mit Ihnen interagiert – sie stellt Augenkontakt mit Ihnen her, sie erkennt Ihre Gesichtsausdrücke, sie folgt dem Gesprächsfaden – wie fühlt sich das an? Ich meine, man könnte es als eine Kunstinstallation betrachten, aber ich sehe es als eine Verbindung zu Menschen auf einer emotionalen Ebene.“
Als ich beobachtete, wie sich das Publikum für Sophias künstliche Menschlichkeit erwärmte, wurde mir klar, dass liebenswürdige anthropomorphe Roboter wie sie uns darauf vorbereiten, anspruchsvollere, mächtigere Androiden in unserem täglichen Leben willkommen zu heißen. Es besteht kein Zweifel daran, dass die KI-Revolution, die wir derzeit erleben, die Roboter der Zukunft animieren und ihnen Fähigkeiten verleihen wird, die unseren eigenen entsprechen, diese übertreffen oder sie ersetzen. Es geschieht bereits. Ende Juni veröffentlichte Engineered Arts ein YouTube-Video von Ameca, das jetzt mit einem Text-zu-Bild-KI-Agenten namens Stable Diffusion ausgestattet ist. Als Ameca gebeten wurde, eine Katze zu zeichnen, erstellte sie eine erkennbare, wenn auch rudimentäre Skizze einer Katze, indem sie einen schwarzen Stift zwischen ihren geschickten Fingern auf einem Whiteboard hielt.
Im Gegensatz zu Sophia und Ameca sehen die meisten freistehenden, ambulanten Roboter nicht wie Menschen aus. Sie können Comic-Gesichter haben, die einer Kinderzeichnung eines Roboters ähneln, oder überhaupt keinen Kopf haben. Der allgemeine Trend geht dahin, Spezialmaschinen zu bauen, die routinemäßige, schmutzige oder gefährliche Arbeiten übernehmen können, wie z. B. das Entladen von Versandpaletten, das Sammeln und Sortieren von Müll, das Auffüllen von Regalen und das Aufspüren von Sprengstoffen. TALON zum Beispiel ist ein taktischer Roboter, der auf Panzerketten herumrollt und vom Militär und den Strafverfolgungsbehörden zur Beseitigung von IEDs und anderen gefährlichen Kampfmitteln eingesetzt wird. Chinesische Sicherheitsroboter, die überwucherten Knollen ähneln, patrouillieren auf Bahnhöfen und Flughäfen und leiten Probleme mithilfe von Kameras an einen menschlichen Bediener weiter. Aber ein offensichtlicher Grund für die Schaffung von Robotern, die die menschliche Form widerspiegeln, ist, dass die gebaute Umgebung dazu gedacht ist, unseren Körper aufzunehmen. Anstatt eine Baustelle neu auszurichten, um sie an Roboterarbeiter anzupassen, kann es kostengünstiger und letztendlich nützlicher sein, Roboter zu entwickeln, die sich wie wir bewegen können, sodass sie in den gleichen Umgebungen arbeiten können wie wir – und in solchen, die das tun wir würden es lieber vermeiden.
Derzeit ähneln sogenannte soziale Roboter, deren allgemeineres Ziel es ist, Menschen zu unterstützen oder zu betreuen, oft eher wie R2-D2 als wie C-3PO. Temi, dessen Software von einem Startup in Boston namens Thinking Robots entwickelt wurde, ähnelt einem iPad, das auf einem aufrechten Staubsauger mit Rädern sitzt. Dennoch sorgen KI-Technologien dafür, dass sich diese Roboter ein wenig mehr wie Menschen verhalten. Bisher wurde Temi darauf programmiert, in Zahnarztpraxen zu arbeiten und gesprochene Befehle wie „Temi, bringen Sie diesen Zahnersatz in ein Labor“ und „Temi, holen Sie Mr. Smith aus der Lobby und begleiten Sie ihn in den Untersuchungsraum“ zu befolgen. Der Benutzer muss nichts weiter tun, als die Worte zu sagen, und der Roboter reagiert. Der 1600-Dollar-Haushaltsroboter von Amazon, Astro, sieht aus wie ein verkleinerter Temi und kann durch ein Haus navigieren und auf Anweisungen wie „Ruf Mama an“, „Bring diese Limonade zu Jeff“ und „Spiel Scharaden mit dem“ reagieren Kinder.“ Es mag jetzt eine teure Neuheit sein, aber die Fähigkeit von Astro, gesprochene Sprache zu verstehen, erhöht die Chance, dass spätere Iterationen mit mehr Kapazitäten in Zukunft alltäglich werden. „Je besser Maschinen ihre Fähigkeiten beherrschen, desto wichtiger wird natürliche Sprache, weil wir ihnen Aufgaben beibringen können“, sagte mir Matthias Scheutz, CEO von Thinking Robots und Professor für Kognitions- und Informatikwissenschaften an der Tufts. „Wir können ihnen sagen, was wir von ihnen erwarten, anstatt Aufgaben programmieren oder eine komplizierte Benutzeroberfläche erlernen zu müssen.“
Künstliche Intelligenz allein wird nicht ausreichen, um eine neue Ära der Androiden einzuleiten. Roboter müssen auch körperliche Intelligenz erlangen. „Ich habe einen Roomba, aber egal wie gut Ihr LLM ist, es gibt keinen Code, der dazu führt, dass er zu meinem Flur fährt und meine HelloFresh-Box in den Papierkorb wirft“, Damion Shelton , der CEO und Mitbegründer von Agility Robotics, erzählte mir. Neuere Roboter erhalten menschenähnliche Merkmale – Hände zum Greifen, Knie zum Beugen und Füße, die für Antrieb und Gleichgewicht sorgen –, die ihre Funktionalität erweitern. Auf YouTube habe ich zugesehen, wie der zweibeinige Roboter Digit von Agility Plastikbehälter aufhob und von einem Bereich zum anderen bewegte. Für viele Menschen ist dies eine relativ einfache Tätigkeit, für einen Roboter jedoch eine Meisterleistung des Maschinenbaus. Digits Beine erinnerten mich an Heuschreckenbeine; Jonathan Hurst, Chief Robot Officer und Mitbegründer des Unternehmens, erzählte mir, dass das Unternehmen jahrelang die Physik des Gehens und Laufens untersucht habe und dann herausfinden musste, wie man diese Erkenntnisse in Drähte und Flaschenzüge umsetzen könne. Etwas so Grundlegendes wie das Absteigen von einer Bordsteinkante, das Stolpern und das Aufstehen, ohne zu fallen, was eine Person ohne viel Nachdenken tun kann, war für Hurst und seine Kollegen ein Problem.
Erst nachdem es dem Team gelungen war, die Biodynamik in umsetzbare Technik umzusetzen, begann das Unternehmen laut Hurst, sich auf die Kapazitäten von Digit auszurichten. „Das ist etwas ganz anderes, als zu sagen: ‚Wir bauen einen Humanoiden‘, was normalerweise bedeutet, dass wir eine Maschine bauen, die wie ein Mensch aussieht“, sagte er mir. „Es ist supereinfach, einen Roboter wie einen Menschen aussehen zu lassen, aber es ist sehr schwierig, einen Roboter dazu zu bringen, sich tatsächlich wie ein Mensch zu bewegen.“ Derzeit muss ein Digit-Roboter so programmiert werden, dass er in dem einzigartigen Arbeitsbereich arbeitet, in dem er eingesetzt wird. Da LLMs wie ChatGPT nun jedoch Code entwerfen können, stellt sich das Agility-Team einen Mehrzweckroboter vor, der nicht für jede Aufgabe programmiert werden muss. Dieser Erfolg könnte näher sein, als Designer es sich einst vorgestellt hatten. „Was Digit – kombiniert mit einem LLM – leisten kann, ist wahrscheinlich besser, als ich gewettet hätte, dass Roboter es in zehn Jahren leisten würden“, sagte Shelton. „Und diese Wette habe ich vor sechs Monaten abgeschlossen.“
Es gibt auch einen psychologischen Grund, Roboter nach dem Vorbild von Menschen zu modellieren: Menschen leben und arbeiten möglicherweise bequemer neben Maschinen, die sich auf vertraute Weise bewegen und denen sie in etwa ähneln. Marc Raibert, der Gründer von Boston Dynamics, hat in seinen vierzig Jahren auf diesem Gebiet große Fortschritte in der Robotik miterlebt. Der vierbeinige Roboter des Unternehmens, Spot, sieht ein bisschen wie ein Hund aus und kann Treppen überwinden, in enge Räume kriechen und mit Hingabe tanzen. (Ein YouTube-Video, in dem Spot zum Rolling-Stones-Song „Start Me Up“ tanzt, in dem der Roboter jede Bewegung von Mick Jagger nachahmt, wurde mehr als drei Millionen Mal aufgerufen.) Doch als das Unternehmen Atlas vorstellte, einen humanoiden Roboter mit ähnlichen Fähigkeiten , es löste eine viel größere Reaktion in der Öffentlichkeit aus. „Offensichtlich hat diese Konstruktion etwas, das bei den Menschen Anklang findet“, erzählte mir Raibert.
Es wird oft gesagt, dass Roboter, die fast wie Menschen aussehen und sich bewegen und die unseren Raum teilen, Menschen Angst machen könnten, was als Uncanny-Valley-Effekt bekannt ist. Aber Scheutz, der das Mensch-Roboter-Interaktionsprogramm von Tuft leitet, sagte mir, dass eine Ähnlichkeit mit Menschen auch dazu führen kann, dass Menschen annehmen, Roboter hätten mehr Fähigkeiten, als sie tatsächlich haben. Dies kann Frustration und Unmut auslösen, wenn der Roboter die Erwartungen des Menschen nicht erfüllt. (Denken Sie daran, wie ärgerlich es ist, wenn Sie einen sogenannten intelligenten Lautsprecher bitten, Ihnen die Außentemperatur mitzuteilen, und er Ihnen das Wetter für eine Stadt in einem anderen Bundesstaat anzeigt.) Eine düsterere Aussicht tauchte vor ein paar Jahren auf, als Samantha, Ein „intelligenter“ humanoider Sexbot, der beim Ars Electronica Festival in Österreich ausgestellt war, wurde von Besuchern bestiegen und schwer beschädigt, die ihre weibliche Form und ihr nachgiebiges Verhalten ausnutzten, um sie zu belästigen.
Im Jahr 1920 schrieb der tschechische Schriftsteller Karel Čapek „RUR (Rossums universelle Roboter)“, ein Theaterstück aus dem Jahr 2000, das die Entwicklung der Robota verfolgt, einer neuen Klasse androider Arbeiter-Sklaven, die schließlich aufsteht und ihre menschlichen Herren vernichtet. Das Stück führte sowohl das Wort „Roboter“ als auch eine Erzählung über Mensch-Roboter-Konflikte ein, die mittlerweile aus Filmen wie „Der Terminator“, „RoboCop“ und „Blade Runner“ bekannt ist. Werden Roboter, die so gestaltet sind, dass sie wie wir aussehen und darauf programmiert sind, auf unsere Wünsche einzugehen, die Menschen dazu anregen, sie als Freunde und Kollegen zu betrachten – oder sie wie bewegliche Sachen zu behandeln? Auf der Bühne in Telluride sagte David Hanson, dass der Zweck von Robotern wie Sophia darin besteht, den Menschen Mitgefühl beizubringen. Aber es schien kontraintuitiv zu sein, anzunehmen, dass eine Maschine, die nur menschliche Emotionen nachahmen kann, die Fähigkeit hat, uns etwas so Grundlegendes für die menschliche Erfahrung einzuprägen.
Nach Ansicht von Hanson unterscheidet sich Sophia nicht von einer Figur in einem Buch, und wir wissen, dass Geschichten Empathie hervorrufen können. Angesichts der Geschwindigkeit, mit der Modelle der künstlichen Intelligenz eingesetzt werden, und ihrer Tendenz zu unberechenbarem Verhalten wäre es jedoch ratsam, die von Čapek und seinen Erben geäußerte Vorsicht nicht völlig aufzugeben. Matthias Scheutz, der CEO von Thinking Robots, wies darauf hin, dass das Risiko besteht, versehentlich Maschinen zu schaffen, die uns auf unvorhergesehene Weise schaden könnten, wenn Designer keine Einschränkungen und ethischen Leitplanken in die KI-Modelle einbauen, die die Roboter der Zukunft antreiben werden. „Die Situation, die wir bei diesen Maschinen vermeiden müssen, ist, dass sie uns beim Testen die Antworten geben, die wir hören wollen, aber hinter den Kulissen entwickeln sie ihre eigene Agenda“, sagte mir Scheutz. „Ich höre mir gerade zu, wie ich rede, und es klingt wie Science-Fiction. Leider ist das nicht der Fall.“ ♦