KI dreht Kreise um die Robotik

Wenn Menschen sich die KI-Apokalypse vorstellen, stellen sie sich im Allgemeinen Roboter vor. Die Androiden-Attentäter der Terminator Franchise. Die humanoiden Helfer von Ich Roboter. Die zylonischen Armeen von Battlestar Galactica. Aber das Roboter-Übernahmeszenario, das am häufigsten von Science-Fiction vorgestellt wird, zeichnet sich nicht gerade ab. Die jüngsten und explosiven Fortschritte in der KI – zusammen mit dem jüngsten und explosiven Hype um sie herum – haben die existenziellen Risiken, die von der Technologie ausgehen, zu einem Gesprächsthema im Mainstream gemacht. Doch der Fortschritt in der Robotik – also Maschinen, die durch Bewegung und Wahrnehmung mit der physischen Welt interagieren können – hinkt weit hinterher. „Ich kann nicht umhin, ein wenig neidisch zu sein“, sagte Eric Jang, der Vizepräsident für KI beim Humanoid-Robotik-Unternehmen 1X, letztes Jahr in einem Vortrag auf einer Robotik-Konferenz. Und das war vor der Ankunft von ChatGPT.

Große Sprachmodelle entwerfen Drehbücher und schreiben Codes und machen Witze. Bildgeneratoren wie Midjourney und DALL-E 2 gewinnen Kunstpreise und Demokratisierung der Innenarchitektur und gefährlich überzeugende Fälschungen zu produzieren. Sie fühlen sich an wie Magie. Unterdessen kämpfen die fortschrittlichsten Roboter der Welt immer noch damit, verschiedene Arten von Türen zu öffnen. Wie in echten physischen Türen. Chatbots können im richtigen Kontext mit echten Menschen verwechselt werden – und wurden es auch; Die fortschrittlichsten Roboter sehen immer noch eher wie mechanische Arme aus, die an Rolltischen befestigt sind. Zumindest im Moment sieht unsere dystopische nahe Zukunft viel ähnlicher aus Ihr als M3GAN.

Die kontraintuitive Vorstellung, dass es schwieriger ist, künstliche Körper zu bauen als künstliche Köpfe, ist nicht neu. 1988 beobachtete der Informatiker Hans Moravec, dass Computer bereits bei Aufgaben, die Menschen eher als kompliziert oder schwierig ansehen (Mathematik, Schach, IQ-Tests), hervorragend waren, aber „dabei nicht mit den Fähigkeiten eines Einjährigen mithalten konnten geht es um Wahrnehmung und Mobilität.“ Sechs Jahre später bot der Kognitionspsychologe Steven Pinker eine prägnantere Formulierung: „Die wichtigste Lehre aus fünfunddreißig Jahren KI-Forschung“, schrieb er, „ist, dass die schwierigen Probleme einfach und die einfachen Probleme schwierig sind.“ Diese Lektion ist jetzt als „Moravecs Paradoxon“ bekannt.

Das Paradoxon ist in den letzten Jahren nur noch deutlicher geworden: Die KI-Forschung rast voran; Robotikforschung stolpert. Das liegt zum Teil daran, dass die beiden Disziplinen nicht gleich ausgestattet sind. An Robotik arbeiten weniger Menschen als an KI. Es gibt auch ein Finanzierungsgefälle: „Das Schwungrad des Kapitalismus dreht sich in der Robotik noch nicht schnell genug“, sagte mir Jang. „Es gibt diese Wahrnehmung unter Investoren, die hauptsächlich auf historischen Daten basiert, dass die Auszahlung von Robotik-Investitionen nicht sehr hoch ist.“ Und wenn private Unternehmen Geld in den Bau von Robotern stecken, neigen sie dazu, ihr Wissen zu horten. In KI-Kreisen hingegen ist – oder war zumindest – Open Sourcing die Regel. Es gibt auch das Problem des versehentlichen Bruchs. Wenn Ihr KI-Experiment schief geht, können Sie einfach neu starten und von vorne beginnen. Ein Fehler mit einem Roboter kann Sie Tausende von Dollar an beschädigter Hardware kosten.

Die Schwierigkeit, genügend Daten zu erhalten, schafft jedoch ein noch größeres Problem für die Robotik. Das Training einer KI erfordert riesige Mengen an Rohmaterial. Für ein großes Sprachmodell bedeutet das Text – eine Ressource, die (vorerst) in Hülle und Fülle vorhanden ist. Die jüngsten Fortschritte der KI wurden in erheblichem Maße durch das Training größerer Modelle mit größerer Rechenleistung auf größeren Datensätzen vorangetrieben.

Robotiker, die zu diesem Ansatz neigen und hoffen, dieselben maschinellen Lerntechniken anwenden zu können, die sich für große Sprachmodelle als so fruchtbar erwiesen haben, stoßen auf Probleme. Menschen erzeugen im Laufe unserer alltäglichen Angelegenheiten eine immense Menge an Text: Wir schreiben Bücher, wir schreiben Artikel, wir schreiben E-Mails, wir texten. Die Art von Daten, die für das Training eines Roboters nützlich sein könnten, werden jedoch selten aufgezeichnet, beispielsweise aus den natürlichen Bewegungen der Muskeln und Gelenke einer Person. Massen von Menschen mit Kameras und Sensoren auszustatten ist wahrscheinlich keine praktikable Option, was bedeutet, dass Forscher Daten über Roboter sammeln müssen, entweder durch manuelle Steuerung oder durch autonomes Sammeln von Daten. Beide Alternativen bergen Probleme: Erstere ist arbeitsintensiv, letztere bleibt in einer Art Zirkellogik stecken. Um gute Daten zu sammeln, muss ein Roboter ziemlich fortgeschritten sein (denn wenn er immer wieder gegen eine Wand läuft, wird er nicht viel lernen), aber um einen ziemlich fortgeschrittenen Roboter zu machen, braucht man gute Daten.

Theoretisch könnte ein Roboter mit Daten trainiert werden, die aus computersimulierten Bewegungen stammen, aber auch hier müssen Sie Kompromisse eingehen. Eine einfache Simulation spart Zeit, erzeugt aber Daten, die sich mit geringerer Wahrscheinlichkeit in die reale Welt übertragen lassen; ein komplizierterer generiert zuverlässigere Daten, dauert aber länger. Ein anderer Ansatz sieht vor, dass Roboter lernen, indem sie Tausende von Stunden Videos von sich bewegenden Menschen ansehen, die von YouTube oder anderswo stammen. Aber selbst diese würden nicht so viele Daten zum Beispiel über die Funktionsweise der Feinmotorik liefern, sagte mir Chelsea Finn, eine KI-Forscherin an der Stanford University und Google. In seinem Vortrag verglich Jang die Berechnung mit einer Flutwelle, die Technologien anhebt: KI surft auf dem Gipfel; Die Robotik steht immer noch am Wasser.

Einige Mitglieder der Robotik-Community sind nicht besonders besorgt darüber, die Welle zu erwischen. Boston Dynamics, dessen Videos von Hunden und humanoiden Robotern seit mehr als einem Jahrzehnt viral werden, „verwendet im Grunde kein maschinelles Lernen, und vieles davon wird irgendwie manuell abgestimmt“, sagte Finn (obwohl sich dies anscheinend bald ändern wird). . Seine Roboter sind im Allgemeinen nicht sehr anpassungsfähig. Sie zeichnen sich dadurch aus, dass sie eine bestimmte Aufgabe in einer bestimmten Umgebung ausführen. So beeindruckend sie aussehen, sind sie in diesem Sinne weit weniger fortgeschritten als einige der bescheideneren Roboter, die in der Lage sind, verschiedene Arten von Schubladen zu öffnen. (Boston Dynamics hat auf eine Bitte um Stellungnahme nicht geantwortet.)

Aber das größte Hindernis für Robotiker – der Kernfaktor von Moravecs Paradoxon – ist, dass die physische Welt extrem kompliziert ist, viel komplizierter als die Sprache. Laufen und Springen und Greifen von Gegenständen mag für Menschen selbstverständlich sein, während das Schreiben von Aufsätzen und Schachspielen und das Absolvieren von Mathetests im Allgemeinen nicht der Fall ist. „Aber in Wirklichkeit ist die Motorsteuerung in gewisser Weise ein viel komplexeres Problem“, sagte mir Finn. „Es ist nur so, dass wir uns über viele, viele Jahre dahin entwickelt haben, gut in der Motorsteuerung zu sein.“ Ein Sprachmodell muss auf Anfragen aus einer unvorstellbaren Anzahl möglicher Wortkombinationen reagieren. Und doch ist die Zahl der möglichen Weltzustände, denen ein Roboter begegnen könnte, noch viel, viel größer. Denken Sie nur an die Kluft zwischen dem Informationsgehalt eines Satzes oder sogar einiger Absätze und dem Informationsgehalt eines Bildes, geschweige denn eines Videos. Stellen Sie sich vor, wie viele Sätze erforderlich wären, um das Video vollständig zu beschreiben, um in jedem Moment das genaue Aussehen und die Größe und Position, das Gewicht und die Textur jedes Objekts, das es zeigt, zu vermitteln.

Unabhängig von den Ursachen könnte die Verzögerung in der Robotik zu einem Problem für die KI werden. Die beiden sind tief miteinander verflochten. Einige Forscher sind skeptisch, ob ein Modell, das nur auf Sprache oder sogar auf Sprache und Bilder trainiert wird, jemals eine menschenähnliche Intelligenz erreichen könnte. „Es gibt zu viel, was in der Sprache implizit bleibt“, sagte mir Ernest Davis, Informatiker an der NYU. “Es gibt zu viel grundlegendes Verständnis der Welt, das nicht spezifiziert ist.” Die Lösung besteht seiner Meinung nach darin, dass die KI über Roboterkörper direkt mit der Welt interagiert. Aber wenn die Robotik keine ernsthaften Fortschritte macht, ist das wahrscheinlich nicht in absehbarer Zeit möglich.

Verbesserungen in der KI könnten den Fortschritt in der Robotik vorantreiben. Bereits seit Jahren nutzen Ingenieure KI, um beim Bau von Robotern zu helfen. In einer extremeren, weit entfernten Vision könnten superintelligente KIs einfach ihren eigenen Roboterkörper entwerfen. Aber im Moment, sagte mir Finn, ist die verkörperte KI noch ein weiter Weg. Keine Android-Attentäter. Keine humanoiden Helfer. Vielleicht sogar kein HAL 9000, der größte KI-Antagonist der Science-Fiction. Im Kontext unserer derzeitigen technologischen Fähigkeiten spielt HALs mörderischer Austausch mit Dave ab 2001: Eine Weltraum-Odyssee würde ganz anders lesen. Die Maschine nicht verweigern um seinem menschlichen Meister zu helfen. Es ist dazu einfach nicht in der Lage.

„Öffnen Sie die Kabinentüren, HAL.“

„Es tut mir leid, David. Ich fürchte, das kann ich nicht.“


source site

Leave a Reply