Könnte ein KI-Chatbot meinen Roman umschreiben?

In einer meiner verzweifelteren Phasen als junger Romanautor begann ich mich zu fragen, ob ich eigentlich meine eigenen Geschichten schreiben sollte. Ich war damals zutiefst uninteressiert an allem, was einer Handlung ähnelte, aber ich erkannte, dass ich, wenn ich irgendeinen literarischen Erfolg erreichen wollte, eine Geschichte erzählen musste, die einen klaren Anfang, eine Mitte und ein Ende hatte.

Das war vor ungefähr zwanzig Jahren. Meine Freunde von der Graduiertenschule und ich waren besessen von einer Website namens Postmodernism Generator, die unsinnige, aber urkomische Abhandlungen über kritische Theorien ausspuckte. Die Website, die von einem Programmierer namens Andrew C. Bulhak erstellt wurde, der auf Jamie Zawinskis Dada Engine aufbaute, ist noch heute aktiv und generiert gefälschte wissenschaftliche Schriften, die sich wie folgt lesen: „In den Werken von Tarantino ist das vorherrschende Konzept das Unterscheidung zwischen Schöpfung und Zerstörung. Marx’ Aufsatz über den kapitalistischen Sozialismus besagt, dass die Gesellschaft einen objektiven Wert hat. Aber es gibt eine Fülle von Aneignungen, die nicht die Theorie, sondern die Subtheorie betreffen.“

Ich dachte mir, wenn ein bisschen Code eine wissenschaftliche Arbeit ausspucken könnte, könnte es mir wahrscheinlich nur sagen, worüber ich schreiben soll. Die meisten Plots, das wusste ich, folgten sehr einfachen Regeln, und da ich nicht ganz herausbekam, wie man eine davon aneinanderreihte, begann ich mit einigen Informatikstudenten über die Möglichkeiten zu sprechen, einen Bot zu entwickeln, der einfach etwas sagen konnte mir, wer wohin gehen soll und was mit ihnen geschehen soll. Was ich mir vorgestellt habe, war ein einfaches Textfeld, in das ich einen Anfang eingeben könnte – so etwas wie „Ein Mann und sein Hund kommen in einer kleinen Stadt in Indiana an“ – und dann würde der Bot mir das auf Seite 3, nach sechs, sagen Absätze meiner schönen Beschreibungen und straffen Prosa, würde der Hund im Hinterhof ihrer Pension einen mysteriösen Knochensatz finden.

Nachdem ich ein paar Monate herumgegraben hatte, wurde mir klar, dass ich nicht viel Unterstützung für meinen Plan finden würde. Einer der Informatikstudenten warf mir, wie ich mich erinnere, vor, ich versuche, alles Gute, Originelle und Schöne aus dem kreativen Prozess zu streichen. Bots, argumentierte er, könnten einfache Schriften imitieren und würden sich bei dieser Aufgabe verbessern, aber KI könnte Ihnen niemals sagen, wie Karenin lächelte, noch würde sie sich jemals auf all die Ortsnamen fixieren, die Prousts Kindheit erfüllten. Ich verstand, warum er so dachte, und stimmte ihm bis zu einem gewissen Grad zu. Aber ich habe nicht verstanden, warum ein Bot nicht einfach alle Teile ausfüllen kann, in denen jemand von Punkt A nach Punkt B geht.

ChatGPT ist das neueste Projekt, das von OpenAI veröffentlicht wurde, einem etwas mysteriösen Unternehmen aus San Francisco, für das auch verantwortlich ist DALL-E, ein Programm, das Kunst generiert. Beide waren virale Sensationen in den sozialen Medien und veranlassten die Menschen, ihre Kreationen zu teilen und dann sofort darüber zu katastrophieren, was die KI-Technologie für die Zukunft bedeutet. Die Chat-Version läuft auf GPT-3 – die Abkürzung steht für „Generative Pre-Trained Transformer“ – eine künstliche Mustererkennungsintelligenz, die aus riesigen Caches mit Internettext „lernt“, um glaubwürdige Antworten auf Anfragen zu generieren. Die Benutzeroberfläche ist erfrischend einfach: Sie schreiben Fragen und Aussagen an ChatGPT, und es spuckt bemerkenswert kohärent aus, wenn auch gelegentlich urkomisch falsch, Antworten.

Die Konzepte hinter GPT-3 gibt es nun schon seit mehr als einem halben Jahrhundert. Sie leiten sich von Sprachmodellen ab, die Wortfolgen Wahrscheinlichkeiten zuordnen. Wenn beispielsweise das Wort „sparsam“ in einem Satz vorkommt, bewertet ein Sprachmodell dieses Wort und alle Wörter davor und versucht zu erraten, was als nächstes kommen sollte. Muster erfordern Input: Wenn sich Ihr Wortkorpus nur auf Jane Austen erstreckt, dann klingt alles, was Ihr Modell produziert, wie ein britischer Roman aus dem 19. Jahrhundert.

Was OpenAI tat, war das Internet durch ein Sprachmodell zu füttern; dies eröffnete dann die Möglichkeiten zur Nachahmung. „Wenn Sie ein Sprachmodell auf das Internet skalieren, können Sie wirklich interessante Muster hervorbringen“, sagte Ben Recht, ein Freund von mir, der Informatikprofessor an der University of California in Berkeley ist. „Das Internet selbst besteht nur aus Mustern – so viel von dem, was wir online tun, sind nur reflexartige Meme-Reaktionen auf alles, was bedeutet, dass die meisten Reaktionen auf Dinge im Internet ziemlich vorhersehbar sind. Das zeigt also nur.“

GPT-3 selbst gibt es seit 2020, und eine Vielzahl von Leuten hat es bereits auf Herz und Nieren geprüft. (Der jüngste Hype darum kommt von der neuen Chat-Version.) Zurück im Jahr 2020, die Wächter Lassen Sie das Programm einen Artikel über sich selbst schreiben, mit einer moderaten, aber nicht vollständig disqualifizierenden Reihe von Eingabeaufforderungen von einem Menschen und einer vernünftigen, leichten Bearbeitung. Gwern Branwen, ein Schriftsteller und Forscher, bat GPT-3, alles zu schreiben, von Gedichten bis hin zu Vaterwitzen. In einem besonders anschaulichen Beispiel fütterte Branwen die Maschine mit dem Anfang von Shel Silversteins „Where the Sidewalk Ends“ und bat sie, den Rest auszufüllen.

Dies ist die Eingabeaufforderung – die eigentlichen ersten sechs Zeilen von „Where the Sidewalk Ends“.

Es gibt eine Stelle, wo der Bürgersteig endet
Und bevor die Straße beginnt,
Und dort wächst das Gras weich und weiß,
Und dort brennt die Sonne purpurrot hell,
Und dort ruht der Mondvogel von seinem Flug
Zur Abkühlung im Pfefferminzwind.

Hier sind die nächsten sechs Zeilen von Silverstein.

Lasst uns diesen Ort verlassen, wo der Rauch schwarz weht
Und die dunkle Straße windet sich und biegt sich.
Vorbei an den Gruben, wo die Asphaltblumen wachsen
Wir werden mit einem Schritt gehen, der gemessen und langsam ist,
Und pass auf, wohin die kreideweißen Pfeile gehen
Bis zu der Stelle, wo der Bürgersteig endet.

Und hier ist, was GPT-3 für die nächste vollständige Strophe entwickelt hat.

Und Stille strömt vom Boden herauf
Und stiehlt sich in deinen Verstand,
Und Zeit wird dort nie gefunden,
Keine Sorge, noch „Anspannung“.
Und Leute kommen und Leute gehen,
Und Produkte drängen sich durch;
Aber da lässt der Milchmann seinen Karren stehen
Und redet mit der alten Dame von nebenan
Über ihren Enkel in der Schule.
Und da gehen die Leinenmädchen mittags nach Hause,
Mit sanften und leichten Schritten,
Und der Polizist auf ihrem Schlag
Kommt vorbei und kennt sie an ihren Gesichtern.

GPT-3 kämpft also darum, die Reimstruktur zu erkennen, und ist vielleicht ein bisschen zu sehr dem „Liebeslied von J. Alfred Prufrock“ und seinen Zeilen „Die Frauen kommen und gehen / Talking of Michelangelo“ verpflichtet. Aber es ist immer noch bemerkenswert, dass ein Computer die Grundstruktur eines Gedichts erkennen, den Ton von Silversteins Versen scheinbar verstehen und dann etwas erschaffen konnte, das sich tatsächlich wie eine anständige Übereinstimmung mit dem Original anfühlt. (Obwohl ich sagen würde, dass es mich ein bisschen mehr an die ersten Seiten von James Agees „Ein Tod in der Familie“ erinnert.) Die kleinen Wortschöpfungen des Bots wie „Leinenmädchen“ sind eindrucksvoll, wenn auch etwas oberflächlich. Der Satz „kennt sie bei ihren Gesichtern“ ist eigentlich ganz schön.

Der knifflige Teil war der Versuch, Muster in den Antworten des Bots zu erkennen und zu analysieren. Wurde die Zeile „Leute kommen und Leute gehen“ wirklich von TS Eliot übernommen, oder ist es nur eine zufällige Reihe von Wörtern, die die Korrelation in meinem Kopf auslöst? Meine Reaktion auf den Bot spiegelt also nicht wirklich meine Beziehung zur Technologie wider, sondern eher mein Gefühl für mein eigenes Wissen. Dies wirft eine andere Frage auf: Warum ist meine Beziehung zu irgendeinem anderen Textstück anders? Etwas pointierter formuliert: Warum spielt es eine Rolle, ob ein Mensch oder ein Bot die Textwand getippt hat?


source site

Leave a Reply