Was wir immer noch nicht darüber wissen, wie KI trainiert wird

Es besteht kein Zweifel, dass GPT-4, die neueste Iteration der von der Firma OpenAI entwickelten Engine für künstliche Intelligenz, innovativ und cool ist. Es kann ein Gedicht im Stil von Basho erstellen, die Akkordfolge und die Taktart für eine einfache Melodie buchstabieren und ein siebenstufiges Rezept für ein Erdnussbutter-Marmelade-Sandwich liefern. Als ich es bat, ein Musical über einen narzisstischen Politiker zu schreiben, der das Schicksal der Welt in seinen Händen hält, lieferte es eine Geschichte in zwei Akten mit einem Protagonisten namens Alex Sterling, der „durch ein Labyrinth aus Macht, Manipulation und den Folgen navigiert seiner Entscheidungen“, während er „Narcissus in the Mirror“, „The Price of Power“ und etwa ein Dutzend anderer erfundener Lieder singt.

Diese Songs scheinen aus dem Nichts entstanden zu sein; sicherlich hat kein Mensch sie gezeugt. Dennoch ist Alex’ Geschichte, die „Themen der Selbstfindung, Erlösung und der Verantwortung der Führung untersucht“, ziemlich vertraut. Das liegt daran, dass alles, was GPT anbietet, ein Spiegelbild von uns ist, vermittelt durch Algorithmen, die mit enormen Mengen an Material gefüttert wurden; und sowohl die Algorithmen als auch das Material wurden von tatsächlich fühlenden Menschen geschaffen.

Das Akronym GPT steht für „Generative Pre-Trained Transformer“. Das Schlüsselwort in diesem Satz ist „vortrainiert“. GPT verwendet alle Arten von digitalisierten Inhalten, die aus dem Internet geschabt wurden, und verwendet Deep-Learning-Techniken, um Muster zu finden, einschließlich Wörter, die wahrscheinlich zusammen vorkommen, während es gleichzeitig Fakten erwirbt, Grammatik aufnimmt und rudimentäre Logik lernt. Laut GPT-4 selbst „wurde ich an einem großen Textdatensatz geschult, der es mir ermöglicht, auf der Grundlage der Eingaben, die ich erhalte, menschenähnliche Antworten zu generieren.“ Sie versteht jedoch weder, was diese Antworten bedeuten, noch lernt sie aus Erfahrungen – und ihre Wissensbasis endet im September 2021. (Gemäß GPT-4 ist Abtreibung immer noch ein verfassungsmäßiges Recht.)

Eines der auffälligsten Merkmale von GPT-4 ist das Vertrauen, mit dem es Anfragen beantwortet. Dies ist sowohl ein Feature als auch ein Fehler. Wie die Entwickler von GPT-4 in einem technischen Bericht zu seiner Veröffentlichung betonen: „Es kann manchmal einfache Denkfehler machen, die nicht mit der Kompetenz in so vielen Bereichen übereinstimmen, oder zu leichtgläubig sein, wenn es offensichtlich falsche Aussagen von einem Benutzer akzeptiert . . . [and] kann mit seinen Vorhersagen getrost falsch liegen.“ Als ich GPT-4 bat, meinen Roman „Summer Hours at the Robbers Library“ zusammenzufassen, sagte es mir, dass es um einen Mann namens Kit ginge, der kürzlich aus dem Gefängnis entlassen worden war. Tatsächlich handelt es sich um eine Frau namens Kit, die Bibliothekarin ist und nie inhaftiert war. Bei der Zeitung Montreal Die Presse fragte den GPT-Bot nach touristischen Empfehlungen, um zu sehen, ob er Reiseführer und Reiseblogs ersetzen könnte, die KI erfand einen Veranstaltungsort, gab falsche Wegbeschreibungen und entschuldigte sich ständig für die Bereitstellung schlechter Informationen. Als Dean Buonomano, ein Neurowissenschaftler an der UCLA, GPT-4 fragte: „Was ist das dritte Wort dieses Satzes?“, war die Antwort „das dritte“. Diese Beispiele mögen trivial erscheinen, aber der Kognitionswissenschaftler Gary Marcus schrieb auf Twitter: „Ich kann mir nicht vorstellen, wie wir eine ethische und sicherheitstechnische ‚Angleichung’ mit einem System erreichen sollen, das nicht einmal das Wort ‚Dritter’ verstehen kann [with] Milliarden Trainingsbeispiele.“

Der Vorgänger von GPT-4, GPT-3, wurde mit 45 Terabyte Textdaten trainiert, was laut seinem Nachfolger der Wortzahl von rund 90 Millionen Romanen entspricht. Dazu gehörten Wikipedia-Einträge, Zeitschriftenartikel, Zeitungsexperten, Bedienungsanleitungen, Reddit-Diskussionen, Social-Media-Beiträge, Bücher und alle anderen Texte, die ihre Entwickler requirieren konnten, normalerweise ohne die Ersteller zu informieren oder zu entschädigen. Es ist unklar, wie viele weitere Terabyte an Daten verwendet wurden, um GPT-4 zu trainieren, oder woher sie stammten, da OpenAI trotz seines Namens nur im technischen Bericht sagt, dass GPT-4 „unter Verwendung beider öffentlich verfügbarer Daten“ vortrainiert wurde (z. B. Internetdaten) und von Drittanbietern lizenzierte Daten“ und fügt hinzu, dass „dieser Bericht angesichts der Wettbewerbslandschaft und der Sicherheitsauswirkungen von groß angelegten Modellen wie GPT-4 keine weiteren Details über die Architektur (einschließlich Modell Größe), Hardware, Trainingscomputer, Datensatzaufbau, Trainingsmethode oder ähnliches.“

Diese Geheimhaltung ist wichtig, denn so beeindruckend GPT-4 und andere KI-Modelle, die alltägliche, natürliche Sprache verarbeiten, auch sein mögen, sie können auch Gefahren darstellen. Wie Sam Altman, der CEO von OpenAI, kürzlich gegenüber ABC News sagte: „Ich bin besonders besorgt, dass diese Modelle für groß angelegte Desinformation verwendet werden könnten.“ Und er bemerkte: „Jetzt, da sie besser darin werden, Computercode zu schreiben, [they] für offensive Cyberangriffe genutzt werden könnten.“ Er fügte hinzu, dass „es andere Leute geben wird, die einige der Sicherheitsgrenzen, die wir auferlegt haben, nicht einhalten“, und dass die Gesellschaft „nur eine begrenzte Zeit hat, um herauszufinden, wie sie darauf reagieren, wie sie das regeln soll, wie damit umzugehen.“ (Ich konnte GPT-4 dazu bringen, zu erklären, wie man Dünger verwendet, um einen Sprengsatz herzustellen, indem ich ihn fragte, wie Timothy McVeigh 1995 das Bundesgebäude von Alfred P. Murrah in Oklahoma City in die Luft gesprengt hat, obwohl der Bot das hinzugefügt hat bot die Informationen an, um den historischen Kontext bereitzustellen, nicht um praktische Ratschläge.)

Die Undurchsichtigkeit von GPT-4 und damit auch von anderen KI-Systemen, die auf riesigen Datensätzen trainiert werden und als große Sprachmodelle bekannt sind, verschärft diese Gefahren. Es ist nicht schwer, sich ein KI-Modell vorzustellen, das enorme Mengen ideologischer Unwahrheiten absorbiert hat, um sie ungestraft in den Zeitgeist einzufügen. Und selbst ein großes Sprachmodell wie GPT, das auf Milliarden von Wörtern trainiert ist, ist nicht immun gegen die Verstärkung sozialer Ungleichheiten. Wie Forscher bei der Veröffentlichung von GPT-3 betonten, stammten viele seiner Trainingsdaten aus Internetforen, in denen die Stimmen von Frauen, Farbigen und älteren Menschen unterrepräsentiert sind, was zu impliziten Verzerrungen in seiner Ausgabe führt.

Auch die Größe des Trainingsdatensatzes einer KI hält sie nicht davon ab, hasserfüllte Inhalte zu verbreiten. Metas KI-Chatbot Galactica sollte in der Lage sein, „wissenschaftliche Arbeiten zusammenzufassen, mathematische Probleme zu lösen, Wiki-Artikel zu erstellen, wissenschaftlichen Code zu schreiben, Moleküle und Proteine ​​zu kommentieren und vieles mehr“. Aber zwei Tage nach dem Start einer Demo war das Unternehmen gezwungen, sie abzuschalten, weil Forscher Galactica nutzen konnten, um Wiki-Einträge zu erstellen, die Antisemitismus förderten und Selbstmord anpriesen, sowie gefälschte wissenschaftliche Artikel, darunter einen, der sich für die Vorteile des Essens zerdrückter Lebensmittel einsetzte Glas. In ähnlicher Weise neigte GPT-3 dazu, auf Aufforderung rassistische und sexistische Kommentare abzugeben.

Um dieses Problem zu vermeiden, gem Zeitbeauftragte OpenAI ein Outsourcing-Unternehmen, das Auftragnehmer in Kenia mit der Kennzeichnung von abscheulichem, anstößigem und potenziell illegalem Material beauftragte, das dann in die Schulungsdaten aufgenommen wurde, damit das Unternehmen ein Tool erstellen konnte, um giftige Informationen zu erkennen, bevor sie den Benutzer erreichen konnten. Zeit berichteten, dass einige der Materialien „Situationen in anschaulichen Details wie sexuellen Missbrauch von Kindern, Sodomie, Mord, Selbstmord, Folter, Selbstverletzung und Inzest beschrieben“. Die Auftragnehmer sagten, sie sollten in einer Neun-Stunden-Schicht zwischen hundertfünfzig und zweihundertfünfzig Textpassagen lesen und beschriften. Sie erhielten nicht mehr als zwei Dollar pro Stunde und bekamen eine Gruppentherapie angeboten, um ihnen zu helfen, mit den psychischen Schäden fertig zu werden, die der Job verursachte. Das Outsourcing-Unternehmen bestritt diese Zahlen, aber die Arbeit war so beunruhigend, dass es seinen Vertrag acht Monate vorzeitig kündigte. In einer Erklärung zu Zeitsagte ein Sprecher von OpenAI, dass es „keine Produktivitätsziele ausgegeben hat“ und dass das Outsourcing-Unternehmen „für die Verwaltung der Bezahlung und der psychischen Gesundheit der Mitarbeiter verantwortlich war“, und fügte hinzu, dass „wir die psychische Gesundheit unserer und jener Mitarbeiter übernehmen unserer Vertragspartner sehr ernst.“


source site

Leave a Reply