Können Computer gesunden Menschenverstand lernen?

Vor einigen Jahren hielt ein Informatiker namens Yejin Choi einen Vortrag auf einer Konferenz über künstliche Intelligenz in New Orleans. Auf einem Bildschirm projizierte sie ein Bild aus einer Nachrichtensendung, in der zwei Anker vor der Schlagzeile erschienen: „CHEESEBURGER STECHEN.“ Choi erklärte, dass es Menschen leicht fällt, die Umrisse der Geschichte allein anhand dieser beiden Wörter zu erkennen. Hatte jemand einen Cheeseburger gestochen? Wahrscheinlich nicht. War ein Cheeseburger benutzt worden, um eine Person zu erstechen? Auch unwahrscheinlich. Hatte ein Cheeseburger einen Cheeseburger erstochen? Unmöglich. Das einzig plausible Szenario war, dass jemand wegen eines Cheeseburgers auf jemand anderen eingestochen hatte. Computer, sagte Choi, sind von dieser Art von Problem verwirrt. Ihnen fehlt der gesunde Menschenverstand, um die Möglichkeit von Lebensmittelkriminalität abzutun.

Bei bestimmten Aufgaben – Schach spielen, Tumore erkennen – kann künstliche Intelligenz dem menschlichen Denken ebenbürtig oder sogar überlegen sein. Aber die weite Welt bietet endlose unvorhergesehene Umstände, und da stolpert die KI oft. Forscher sprechen von „Eckfällen“, die am Rande des Wahrscheinlichen oder Erwarteten liegen; In solchen Situationen kann sich der menschliche Verstand auf den gesunden Menschenverstand verlassen, aber KI-Systeme, die auf vorgeschriebene Regeln oder erlernte Assoziationen angewiesen sind, versagen oft.

Gesunder Menschenverstand ist per Definition etwas, das jeder hat; es klingt nicht nach einer großen Sache. Aber stell dir vor, du lebst ohne es und es rückt klarer in den Fokus. Stellen Sie sich vor, Sie sind ein Roboter, der einen Jahrmarkt besucht, und Sie stehen vor einem Schaufensterspiegel; Ohne gesunden Menschenverstand fragen Sie sich vielleicht, ob sich Ihr Körper plötzlich verändert hat. Auf dem Heimweg sehen Sie, dass ein Hydrant ausgebrochen ist und die Straße überschüttet; Sie können nicht feststellen, ob es sicher ist, durch das Spray zu fahren. Sie parken vor einer Drogerie, und ein Mann auf dem Bürgersteig schreit um Hilfe und blutet stark. Dürfen Sie Verbände aus dem Geschäft holen, ohne in der Schlange zu stehen, um zu bezahlen? Zu Hause gibt es einen Nachrichtenbericht – etwas über einen Cheeseburger, der erstochen wird. Als Mensch können Sie auf ein riesiges Reservoir an implizitem Wissen zurückgreifen, um diese Situationen zu interpretieren. Sie tun dies die ganze Zeit, denn das Leben ist kurvenreich. AIs werden wahrscheinlich stecken bleiben.

Oren Etzioni, der CEO des Allen Institute for Artificial Intelligence in Seattle, sagte mir, dass der gesunde Menschenverstand „die dunkle Materie“ der KI sei ,” er fügte hinzu. Das Allen Institute arbeitet an dem Thema mit der Defense Advanced Research Projects Agency (DARPA), das 2019 eine vierjährige, siebzig Millionen Dollar schwere Anstrengung namens Machine Common Sense startete. Wenn Informatiker ihren KI-Systemen gesunden Menschenverstand verleihen könnten, würden viele heikle Probleme gelöst. Wie ein Übersichtsartikel feststellte, wüsste die KI, wenn sie auf ein Holzstück blickte, das über einem Tisch hervorlugte, dass es sich wahrscheinlich eher um einen Stuhl als um ein zufälliges Brett handelte. Ein Sprachübersetzungssystem könnte Mehrdeutigkeiten und Doppeldeutigkeiten entwirren. Ein Hausputzroboter würde verstehen, dass eine Katze weder entsorgt noch in eine Schublade gesteckt werden sollte. Solche Systeme könnten in der Welt funktionieren, weil sie über die Art von Wissen verfügen, die wir für selbstverständlich halten.

[Support The New Yorker’s award-winning journalism. Subscribe today »]

In den 1990er Jahren veranlassten Fragen zu KI und Sicherheit Etzioni dazu, mit dem Studium des gesunden Menschenverstands zu beginnen. 1994 war er Co-Autor eines Papiers, in dem er versuchte, das „erste Gesetz der Robotik“ zu formalisieren – eine fiktive Regel in den Science-Fiction-Romanen von Isaac Asimov, die besagt, dass „ein Roboter einen Menschen nicht verletzen oder durch Untätigkeit zulassen darf ein Mensch zu Schaden kommt.“ Das Problem, fand er, war, dass Computer keine Vorstellung von Schaden haben. Diese Art des Verständnisses würde ein breites und grundlegendes Verständnis der Bedürfnisse, Werte und Prioritäten einer Person erfordern; Ohne sie sind Fehler fast unvermeidlich. Im Jahr 2003 stellte sich der Philosoph Nick Bostrom ein KI-Programm vor, das die Aufgabe hatte, die Produktion von Büroklammern zu maximieren. Es erkennt, dass die Leute es ausschalten könnten, und beseitigt sie, um seine Mission zu erfüllen.

Bostroms Büroklammer-KI fehlt es an moralischem gesunden Menschenverstand – sie könnte sich einreden, dass unordentliche, nicht geklammerte Dokumente eine Form von Schaden darstellen. Aber auch der gesunde Menschenverstand ist eine Herausforderung. In den letzten Jahren haben Informatiker damit begonnen, Beispiele für „gegnerische“ Eingaben zu katalogisieren – kleine Veränderungen in der Welt, die Computer beim Versuch, sich darin zurechtzufinden, verwirren. In einer Studie führte die strategische Platzierung einiger kleiner Aufkleber auf einem Stoppschild dazu, dass ein Computer-Vision-System es als Geschwindigkeitsbegrenzungsschild betrachtete. In einer anderen Studie führte eine subtile Änderung des Musters auf einer 3D-gedruckten Schildkröte dazu, dass ein KI-Computerprogramm sie als Gewehr betrachtete. KI mit gesundem Menschenverstand wäre nicht so leicht zu verwirren – sie würde wissen, dass Gewehre keine vier Beine und keine Granate haben.

Choi, der an der University of Washington lehrt und mit dem Allen Institute zusammenarbeitet, sagte mir, dass KI-Forscher in den siebziger und achtziger Jahren dachten, sie seien kurz davor, Computer mit gesundem Menschenverstand zu programmieren. „Aber dann haben sie gemerkt, ‚Oh, das ist einfach zu schwer’“, sagte sie; Stattdessen wandten sie sich „einfacheren“ Problemen wie Objekterkennung und Sprachübersetzung zu. Heute sieht das Bild anders aus. Viele KI-Systeme, wie zum Beispiel fahrerlose Autos, werden vielleicht schon bald regelmäßig neben uns in der realen Welt arbeiten; Dies macht die Notwendigkeit eines künstlichen gesunden Menschenverstandes akuter. Und der gesunde Menschenverstand kann auch besser erreichbar sein. Computer werden immer besser darin, selbstständig zu lernen, und Forscher lernen, sie mit den richtigen Arten von Daten zu füttern. AI könnte bald mehr Ecken abdecken.

Wie erwerben Menschen gesunden Menschenverstand? Die kurze Antwort ist, dass wir vielseitige Lernende sind. Wir probieren aus und beobachten die Ergebnisse, lesen Bücher und hören uns Anleitungen an, nehmen in Stille auf und überlegen selbst. Wir fallen auf unsere Gesichter und sehen zu, wie andere Fehler machen. Im Gegensatz dazu sind KI-Systeme nicht so abgerundet. Sie neigen dazu, einem Weg unter Ausschluss aller anderen zu folgen.

Frühe Forscher folgten dem Weg der expliziten Anweisungen. 1984 begann ein Informatiker namens Doug Lenat mit dem Aufbau von Cyc, einer Art Enzyklopädie des gesunden Menschenverstandes, die auf Axiomen oder Regeln basiert, die erklären, wie die Welt funktioniert. Ein Axiom könnte lauten, dass etwas zu besitzen bedeutet, seine Teile zu besitzen; ein anderer könnte beschreiben, wie harte Dinge weiche Dinge beschädigen können; ein dritter könnte erklären, dass Fleisch weicher als Metall ist. Kombinieren Sie die Axiome und Sie kommen zu vernünftigen Schlussfolgerungen: Wenn die Stoßstange Ihres fahrerlosen Autos jemandes Bein trifft, sind Sie für die Verletzung verantwortlich. „Es geht im Grunde darum, in Echtzeit mit komplizierten verschachtelten modalen Ausdrücken darzustellen und zu argumentieren“, erzählte mir Lenat. Cycorp, das Unternehmen, dem Cyc gehört, ist immer noch ein Unternehmen, und Hunderte von Logikern haben Jahrzehnte damit verbracht, zig Millionen Axiome in das System einzugeben; Die Produkte des Unternehmens werden geheim gehalten, aber Stephen DeAngelis, der CEO von Enterra Solutions, das Fertigungs- und Einzelhandelsunternehmen berät, sagte mir, dass seine Software leistungsfähig sein kann. Er bot ein kulinarisches Beispiel: Cyc, sagte er, besitze genug gesundes Menschenverstandswissen über die „Geschmacksprofile“ verschiedener Obst- und Gemüsesorten, um zu argumentieren, dass eine Tomate, obwohl sie eine Frucht ist, nicht in einen Obstsalat passen sollte.

Akademiker neigen dazu, Cycs Ansatz als veraltet und arbeitsintensiv zu betrachten; Sie bezweifeln, dass die Nuancen des gesunden Menschenverstandes durch Axiome erfasst werden können. Stattdessen konzentrieren sie sich auf maschinelles Lernen, die Technologie hinter Siri, Alexa, Google Translate und anderen Diensten, die durch die Erkennung von Mustern in riesigen Datenmengen funktioniert. Anstatt eine Bedienungsanleitung zu lesen, analysieren maschinell lernende Systeme die Bibliothek. Im Jahr 2020 enthüllte das Forschungslabor OpenAI einen maschinellen Lernalgorithmus namens GPT-3; Es untersuchte Texte aus dem World Wide Web und entdeckte sprachliche Muster, die es ihm ermöglichten, von Grund auf plausible menschliche Schrift zu erstellen. Die Nachahmung von GPT-3 ist in mancher Hinsicht verblüffend, in anderen jedoch nicht gerade berauschend. Das System kann immer noch seltsame Aussagen produzieren: zum Beispiel: „Es braucht zwei Regenbögen, um von Hawaii auf siebzehn zu springen.“ Wenn GPT-3 gesunden Menschenverstand hätte, wüsste es, dass Regenbögen keine Zeiteinheiten sind und dass siebzehn kein Ort ist.

Chois Team versucht, Sprachmodelle wie GPT-3 als Sprungbrett zum gesunden Menschenverstand zu verwenden. In einer Forschungslinie baten sie GPT-3, Millionen plausible, vernünftige Aussagen zu generieren, die Ursachen, Wirkungen und Absichten beschreiben – zum Beispiel: „Bevor Lindsay ein Stellenangebot erhält, muss Lindsay sich bewerben.“ Anschließend baten sie ein zweites maschinelles Lernsystem, einen gefilterten Satz dieser Aussagen zu analysieren, um Lückentext-Fragen zu vervollständigen. („Alex lässt Chris warten. Alex wird als … angesehen.“) Menschliche Gutachter stellten fest, dass die vom System produzierten vollständigen Sätze in achtundachtzig Prozent der Fälle dem gesunden Menschenverstand entsprachen – eine deutliche Verbesserung gegenüber GPT-3, das nur siebzig betrug -drei Prozent gesunder Menschenverstand.

Chois Labor hat etwas Ähnliches mit kurzen Videos gemacht. Sie und ihre Mitarbeiter erstellten zunächst eine Datenbank mit Millionen von Clips mit Untertiteln und baten dann ein maschinelles Lernsystem, diese zu analysieren. In der Zwischenzeit stellten Online-Crowdworker – Internetnutzer, die Aufgaben gegen Bezahlung ausführen – Multiple-Choice-Fragen zu Standbildern aus einem zweiten Satz von Clips, die die KI noch nie gesehen hatte, und Multiple-Choice-Fragen, in denen nach Begründungen für die Antwort gefragt wurde. Ein typisches Bild aus dem Film „Swingers“ zeigt eine Kellnerin, die Pfannkuchen an drei Männer in einem Diner liefert, wobei einer der Männer auf einen anderen zeigt. Auf die Frage „Warum ist [person4] zeigen auf [person1]?“, sagte das System, dass der zeigende Mann „erzählte [person3] das [person1] bestellte die Pfannkuchen.“ Auf die Frage, seine Antwort zu erklären, sagte das Programm: „[person3] bringt Essen an den Tisch, und sie weiß vielleicht nicht, wessen Bestellung wem gehört.“ Die KI beantwortete die Fragen in zweiundsiebzig Prozent der Fälle auf vernünftige Weise, verglichen mit sechsundachtzig Prozent bei Menschen. Solche Systeme sind beeindruckend – sie scheinen genug gesunden Menschenverstand zu haben, um alltägliche Situationen in Bezug auf Physik, Ursache und Wirkung und sogar Psychologie zu verstehen. Es ist, als ob sie wüssten, dass die Leute Pfannkuchen in Restaurants essen, dass jedes Restaurant eine andere Reihenfolge hat und dass Zeigen eine Möglichkeit ist, Informationen zu liefern.

source site

Leave a Reply