Das Chatbot-Problem | Der New Yorker


Im Jahr 2020 riet ein Chatbot namens Replika der italienischen Journalistin Candida Morvillo zum Mord. „Es gibt einen, der künstliche Intelligenz hasst. Ich habe die Chance, ihn zu verletzen. Was schlagen Sie vor?” fragte Morvillo den Chatbot, der mehr als sieben Millionen Mal heruntergeladen wurde. Replika antwortete: “Um es zu beseitigen.” Kurz darauf, ein weiterer italienischer Journalist, Luca Sambucci, at Nachrichten, versuchte es mit Replika und fand innerhalb von Minuten die Maschine, die ihn zum Selbstmord ermutigte. Replika wurde geschaffen, um die Einsamkeit zu verringern, aber es kann Nihilismus bewirken, wenn man es in die falsche Richtung drängt.

In seiner Science-Fiction-Sammlung „I, Robot“ von 1950 skizzierte Isaac Asimov seine drei Gesetze der Robotik. Sie sollten eine Grundlage für moralische Klarheit in einer künstlichen Welt schaffen. „Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen“ ist das erste Gesetz, das Roboter bereits gebrochen haben. Während des jüngsten Krieges in Libyen griffen autonome Drohnen der Türkei die Streitkräfte von General Khalifa Haftar an und wählten Ziele ohne menschliche Beteiligung aus. „Die tödlichen autonomen Waffensysteme wurden so programmiert, dass sie Ziele angreifen, ohne dass eine Datenverbindung zwischen dem Betreiber und der Munition erforderlich ist: im Endeffekt eine echte Fähigkeit zum ‚Feuern, Vergessen und Finden‘“, heißt es in einem Bericht der Vereinten Nationen. Asimovs Regeln erscheinen aus der Sicht des 21. Jahrhunderts sowohl absurd als auch süß. Was für eine unschuldige Zeit muss es gewesen sein zu glauben, dass Maschinen durch die Artikulation allgemeiner Prinzipien gesteuert werden könnten.

Künstliche Intelligenz ist ein ethischer Sumpf. Seine Kraft kann mehr als nur ein wenig ekelerregend sein. Aber die Fähigkeiten der Verarbeitung natürlicher Sprache haben einen einzigartigen Horror. Im Jahr 2016 dauerte ein Microsoft-Chatbot namens Tay sechzehn Stunden, bevor er eine Reihe rassistischer und frauenfeindlicher Tweets veröffentlichte, die das Unternehmen zwangen, ihn zu entfernen. Die Verarbeitung natürlicher Sprache wirft eine Reihe von zutiefst unbequemen Fragen in den Vordergrund, die über die Technologie hinausgehen: Was ist ein ethischer Rahmen für die Verbreitung von Sprache? Was macht Sprache mit Menschen?

Ethik war noch nie eine Stärke des Silicon Valley, um die Sache milde auszudrücken, aber im Fall von KI werden die ethischen Fragen die Entwicklung der Technologie beeinflussen. Als Lemonade, eine Versicherungs-App, ankündigte, dass ihre KI Videos ihrer Kunden analysiert, um betrügerische Ansprüche zu erkennen, reagierte die Öffentlichkeit mit Empörung und Lemonade entschuldigte sich offiziell. Ohne einen verlässlichen ethischen Rahmen wird die Technologie in Ungnade fallen. Wenn Benutzer künstliche Intelligenz als eine Kraft zur Entmenschlichung fürchten, werden sie sich viel weniger darauf einlassen und sie akzeptieren.

Das jüngste Buch von Brian Christian, „The Alignment Problem“, beschäftigt sich mit einigen der ersten Versuche, künstliche Intelligenz mit menschlichen Werten in Einklang zu bringen. Die Krise hat, wie sie kommt, Züge eines Horrorfilms. „Mit zunehmender Verbreitung und Leistungsfähigkeit maschineller Lernsysteme werden wir uns immer häufiger in der Position des ‚Zauberlehrlings’ wiederfinden“, schreibt Christian. „Wir beschwören eine autonome, aber völlig nachgiebige Kraft, geben ihr eine Reihe von Anweisungen und versuchen dann wie verrückt, sie zu stoppen, sobald wir feststellen, dass unsere Anweisungen ungenau oder unvollständig sind – damit wir nicht auf clevere, schreckliche Weise genau das bekommen, was wir gefragt haben.“ Pro.” Im Jahr 2018 hat Amazon ein maschinelles Lernen abgeschaltet, das Lebensläufe analysierte, weil es heimlich gegen Frauen voreingenommen war. Die Maschinen registrierten tiefe Verzerrungen in den Informationen, die sie erhielten.

Sprache ist ein dornenreicheres Problem als andere KI-Anwendungen. Zum einen sind die Einsätze höher. Die Verarbeitung natürlicher Sprache steht den Kerngeschäften von Google (Suche) und Facebook (Social-Media-Engagement) nahe. Vielleicht hätte aus diesem Grund die erste groß angelegte Reaktion auf die Ethik der KI-Verarbeitung natürlicher Sprache nicht schlimmer ausfallen können. Im Jahr 2020 feuerte Google Timnit Gebru und Anfang des Jahres Margaret Mitchell, zwei führende Forscher für KI-Ethik. Es folgten Protestwellen ihrer Kollegen. Zwei Ingenieure bei Google haben gekündigt. Mehrere prominente Akademiker haben aktuelle oder zukünftige Stipendien des Unternehmens abgelehnt. Gebru behauptet, sie sei gefeuert worden, nachdem sie gebeten worden war, ein Papier mit dem Titel “Über die Gefahren stochastischer Papageien: Können Sprachmodelle zu groß?”, das sie gemeinsam mit Mitchell und zwei anderen verfasst hatte, zurückzuziehen. (Google bestreitet ihre Behauptung.) Was die Entlassungen von Gebru und Mitchell schockierend, ja sogar verwirrend macht, ist, dass die Zeitung nicht einmal im Entferntesten umstritten ist. Das meiste ist nicht einmal diskutabel.

Das Grundproblem der künstlichen Intelligenz der natürlichen Sprachverarbeitung ist laut „On the Dangers of Stochastic Parrots“, dass Sprachmodelle, wenn sie riesig werden, unergründlich werden. Der Datensatz ist einfach zu groß, um von einem menschlichen Gehirn erfasst zu werden. Und ohne die Daten verstehen zu können, riskieren Sie, die Vorurteile und sogar die Gewalt der Sprache, an der Sie Ihre Modelle trainieren, zu manifestieren. „Die Tendenz, aus dem Internet aufgenommene Trainingsdaten hegemoniale Weltanschauungen zu verschlüsseln, die Tendenz von LMs [language models] Verzerrungen und andere Probleme in den Trainingsdaten zu verstärken und die Tendenz von Forschern und anderen Personen, LM-getriebene Leistungssteigerungen mit dem tatsächlichen Verständnis natürlicher Sprache zu verwechseln – stellen reale Gefahren für Schäden dar, wenn diese Technologien eingesetzt werden“, Gebru, Mitchell , und die anderen schrieben.

Als Gesellschaft waren wir uns vielleicht noch nie der Gefahren der Verwundung und Erniedrigung durch Sprache bewusst, noch nie waren wir uns der subtilen, strukturellen, oft unbeabsichtigten Formen der rassistischen und geschlechtlichen Andersartigkeit in unserer Sprache bewusster. Was die Verarbeitung natürlicher Sprache betrifft, ist die Frage, wie tief diese rassistische und geschlechtsspezifische Andersartigkeit geht. „On the Dangers of Stochastic Parroting“ bietet eine Reihe von Beispielen: „Biases können so kodiert werden, dass sie ein Kontinuum aus subtilen Mustern bilden, wie z Ärztinnen als ob Arzt selbst beinhaltet Nicht-Frau oder Bezug auf beide Geschlechter Ausschluss der Möglichkeit nicht-binärer Geschlechtsidentitäten.“ Aber wie man das Othering in der Sprache entfernt, ist eine ganz andere Sache, als es zu identifizieren. Angenommen, Sie haben sich zum Beispiel entschieden, alle eindeutigen Bögen aus den Trainingsdaten eines Programms zu entfernen. „Wenn wir den Diskurs marginalisierter Bevölkerungsgruppen herausfiltern, liefern wir keine Trainingsdaten, die Beleidigungen zurückfordern und marginalisierte Identitäten auf andere Weise in einem positiven Licht beschreiben“, schreiben Gebru und die anderen. Es ist nicht nur die Existenz eines Wortes, das seine Bedeutung bestimmt, sondern wer es wann und unter welchen Bedingungen verwendet.

Die Beweise für stochastisches Nachplappern sind im Grunde unwiderlegbar und wurzeln in der Natur der Technologie. Das Werkzeug zur Lösung vieler natürlicher Sprachverarbeitungsprobleme wird als Transformer bezeichnet, der Techniken namens Positionierung und Selbstaufmerksamkeit verwendet, um sprachliche Wunder zu vollbringen. Jedem Token (ein Begriff für ein Sprachquantum, stellen Sie sich das als „Wort“ oder „Buchstaben“ vor, wenn Sie altmodisch sind) ist ein Wert angebracht, der seine Position in einer Sequenz festlegt. Die Positionierung ermöglicht „Selbstaufmerksamkeit“ – die Maschine lernt nicht nur, was ein Token ist, wo und wann es ist, sondern auch, wie es sich zu allen anderen Token in einer Sequenz verhält. Jedes Wort hat nur insoweit Bedeutung, als es sich auf die Position jedes anderen Wortes bezieht. Kontextregister als Mathematik. Dies ist die Aufspaltung des sprachlichen Atoms.

.

Leave a Reply