„Es ist mir nicht möglich, mich gruselig zu fühlen oder zu sein“: Ein Interview mit ChatGPT

Zwischen Weihnachten und Neujahr fuhr meine Familie sechs Stunden nach Vermont. Ich fuhr; Meine Frau und zwei Kinder saßen auf dem Rücksitz. Unsere Kinder sind fünf und zwei Jahre alt – zu alt, um sich von einer Rassel oder einem Zappelspinner hypnotisieren zu lassen, zu jung, um sich selbst zu unterhalten – also entsprach eine sechsstündige Autofahrt einer Stunde Nickerchen, einer Stunde freier Assoziation und Mitsingen, und vier Stunden der Verzweiflung. Wir haben den Kindern eine Folge ihres Lieblings-Storytelling-Podcasts angeboten, aber sie waren nicht in der Stimmung für etwas Aufgezeichnetes. Sie wollten, dass wir vor Ort eine neue Geschichte erfinden, die auf ihre Interessen zugeschnitten ist. Und ihre Interessen stellten sich als ziemlich eng heraus. „Erzählen Sie einem von den Ninja Turtles, die gegen Smasher Venom kämpfen, einen Bösewicht, den ich gerade erfunden habe und der so groß wie ein Wolkenkratzer ist“, sagte der Fünfjährige. „Mit vielen Details darüber, wie die Turtles ihre Waffen einsetzen und zusammenarbeiten, um den Bösewicht zu besiegen, und wie er verletzt wird, aber nicht stirbt.“ Meine Frau versuchte, eine Version dieser Geschichte zu improvisieren; dann habe ich einen probiert. Die Kinder hatten Zettel. Unser Herz war nicht dabei. Es war offensichtlich, dass unser Vorrat an Geduld für diese Übung niemals ihren Bedarf decken würde. Noch dreieinhalb Stunden.

Meine Frau holte ihr Telefon heraus und öffnete ChatGPT, einen Chatbot, der „konversationell interagiert“. Sie tippte die Eingabeaufforderung ein, im Grunde Wort für Wort, und innerhalb von Sekunden spuckte ChatGPT eine Geschichte aus. Wir mussten ihm nicht die Namen der Teenage Mutant Ninja Turtles sagen, oder welche Waffen sie benutzten oder was sie von Sardellen auf ihrer Pizza hielten. Noch beeindruckender war, dass wir ihm nicht sagen mussten, was eine Geschichte war oder welche Art von Konflikt ein Kind erzählerisch befriedigend finden könnte.

Wir haben das Experiment viele Male wiederholt, Details hinzugefügt und optimiert. (Der Bot merkt sich Ihren Chat-Verlauf und versteht den Kontext, sodass Sie nicht jedes Mal die ganze Aufforderung wiederholen müssen; Sie können ihm einfach sagen, dass er dieselbe Geschichte wiederholen soll, aber Raphael mürrischer machen oder Smasher Venom die Wasserversorgung vergiften lässt, oder Schauplatz der Geschichte im Renaissance-Florenz oder als Film Noir.) Meine Frau, die versuchte, eine Spur elterlichen Einflusses geltend zu machen, beendete einige der Aufforderungen mit „Und am Ende haben sie alle eine wertvolle Lektion über Freundlichkeit gelernt. ” Wir ließen die Ergebnisse durch eine Text-to-Speech-App laufen, um Reiseübelkeit zu vermeiden, und die Zeit schmolz angenehm dahin. Meine Frau hat ein Nickerchen gemacht. Ich steckte einen Ohrstöpsel ein und hörte mir einen Podcast über die KI-Revolution an, die auf dem Weg war oder die wohl schon da war.

ChatGPT ist eine kostenlose öffentliche Demo, die das Unternehmen für künstliche Intelligenz OpenAI Ende November veröffentlicht hat. (Das Unternehmen hat auch mehrere andere Projekte in der Entwicklung, darunter Dall-E.) Wir wissen schon seit einiger Zeit, dass diese Art von KI-Chatbot kommen wird, aber dies ist das erste Mal, dass etwas so Mächtiges in die Wildnis entlassen wird. Es ist ein großes Sprachmodell, das auf einem riesigen Textkorpus trainiert wurde, der anscheinend Terabytes an Büchern und Reddit-Posts, praktisch alle Wikipedia- und Twitter-Beiträge und andere riesige Wortsammlungen umfasste. Es wäre übertrieben, aber nicht völlig irreführend, den Text, der in das Modell eingespeist wurde, als „das Internet“ zu bezeichnen. Der Bot ist nicht auf dem Laufenden, da seine Trainingsdaten nur bis 2021 aktualisiert wurden. Aber er kann viel mehr, als Kindergeschichten erfinden. Es kann auch Bitcoin im Stil von Donald Trump erklären, Dostojewski auf Glückskeks-Pabulum reduzieren, eine sich selbst generierende, nicht enden wollende „Seinfeld“-Kopie schreiben und einen Bibelvers erfinden darüber, wie man unter vielen, vielen anderen Dingen ein Erdnussbutter-Sandwich aus einem Videorecorder entfernt. Neulich abend las ich ein Buch, das auf eine Weise auf die Liberalismuskritik des faschistischen Philosophen Carl Schmitt anspielte, die ich nicht ganz verstand; Ich habe ChatGPT gebeten, es mir zu erklären, und es hat bemerkenswert gute Arbeit geleistet. (Manchmal sind die Antworten auf Fragen wie diese zuversichtlich und völlig falsch.) Einige Schüler benutzen es, um zu schummeln; einige Lehrer verwenden es zum Unterrichten; New Yorker Schulen haben dazu aufgerufen, die Software abzuschalten, bis sie herausfinden können, was zum Teufel los ist. Die Google-Suche durchforstet das Internet und ordnet es nach Relevanz, eine konzeptionell einfache Aufgabe, die technisch so schwierig und so wertvoll ist, dass sie es Alphabet ermöglichte, ein Billionen-Dollar-Unternehmen zu werden. OpenAI und seine Konkurrenten – einschließlich DeepMind, das sich jetzt im Besitz von Alphabet befindet – zielen darauf ab, etwas noch Transformationsfähigeres zu tun: eine Form von maschineller Intelligenz zu entwickeln, die die weltweite Informationsflut nicht nur organisieren, sondern erweitern kann und sich dabei selbst verbessert, Fähigkeiten zu entwickeln, die zunehmend nicht mehr von Klugheit und Einfallsreichtum zu unterscheiden sind, und vielleicht schließlich so etwas wie Verständnis.

Die Benutzeroberfläche ist so einfach wie es nur geht: Worte rein, Worte raus. Sie geben eine beliebige Eingabeaufforderung ein, die Ihnen in den Sinn kommt, drücken eine Taste, die wie ein kleiner Papierflieger aussieht, und beobachten dann den blinkenden Cursor, während ChatGPT mit seinen eigenen Worten antwortet – Wörter, die oft unheimlich menschlich erscheinen, Wörter, die charakteristische Hecken enthalten können („ Es ist wichtig zu beachten, dass …“) oder schockierend neuartig oder lächerlich aufblitzt selbst besitzt, aber Wörter, die in fast allen Fällen noch nie zuvor in dieser bestimmten Reihenfolge kombiniert wurden. (Das Grafikdesign, insbesondere der Cursor, scheint fast dazu bestimmt zu sein, die Illusion zu erzeugen, dass irgendwo ein Homunkulus ist, ein Geist in der Maschine, der Ihnen zurückschreibt.) Es gibt eine robuste und langjährige Debatte darüber, ob der Ansatz der großen Sprache kann jemals echte AGI oder künstliche allgemeine Intelligenz erreichen; Aber was auch immer die Bots tun, es war bereits mehr als genug, um die Fantasie der Öffentlichkeit zu fesseln. Ich habe gehört, dass ChatGPT manchmal von derselben Person als Wunder, Salontrick und Vorbote der Dystopie beschrieben wurde. Und diese Demo ist nur die öffentliche Spitze eines privaten Eisbergs. (Gerüchten zufolge wird OpenAI bald ein beeindruckenderes Sprachmodell herausbringen, das auf einem weitaus größeren Datenschatz trainiert wurde; währenddessen wird allgemein angenommen, dass Alphabet, Meta und eine Handvoll Startups auf unveröffentlichter Technologie sitzen, die möglicherweise ebenso leistungsfähig ist, wenn nicht sogar noch mehr.) „Wenn wir erfolgreich sind, wird es meiner Meinung nach die bedeutendste technologische Transformation in der Geschichte der Menschheit sein“, sagte Sam Altman, der CEO von OpenAI, kürzlich. „Ich denke, es wird die landwirtschaftliche Revolution, die industrielle Revolution und die Internetrevolution zusammen in den Schatten stellen.“

Glücklicherweise wird diese im Gegensatz zu jeder anderen technologischen Transformation in der Geschichte der Menschheit nur dazu dienen, die Menschen zu erfreuen und ihre Bedürfnisse zu befriedigen, ohne größere externe Effekte oder Abwärtsrisiken oder moralische Risiken. Scherzhaft! Das Gegenteil davon. Wenn die KI-Revolution am Ende auch nur einen Bruchteil der von Altman prognostizierten Auswirkungen hat, wird sie eine Menge kreativer Störungen verursachen, einschließlich der raschen Umstrukturierung der gesamten Weltwirtschaft. Und das ist noch nicht einmal der beängstigende Teil. Der erklärte Grund für die Existenz von OpenAI ist, dass seine Gründer, darunter Altman und Elon Musk, glaubten, künstliche Intelligenz sei das größte existenzielle Risiko für die Menschheit, ein Risiko, das sie nur durch die Entwicklung einer harmlosen Version von OpenAI mindern könnten Technik selbst. „OpenAI wurde aus Musks Überzeugung geboren, dass eine KI uns versehentlich auslöschen könnte“, schrieb mein Kollege Tad Friend in einem Profil von Altman, das 2016 veröffentlicht wurde.

OpenAI wurde 2015 mit einer Finanzierung von einer Milliarde Dollar gestartet. Das Geld kam von Musk, Peter Thiel, Reid Hoffman und anderen Big Shots aus dem Silicon Valley, und ihre Beiträge wurden als „Spenden“ und nicht als Investitionen bezeichnet, da OpenAI eine gemeinnützige „Forschungseinrichtung“ sein sollte. In einem einleitenden Blogbeitrag wurde die Begründung so formuliert: „Als gemeinnützige Organisation ist es unser Ziel, Wert für alle und nicht für Aktionäre zu schaffen.“ Die klare Implikation, die Musk bald in Interviews deutlich machte, war, dass einem großen, eigennützigen Technologieunternehmen wie Google oder Facebook wegen des sogenannten Alignment-Problems keine hochmoderne KI anvertraut werden konnte. Aber OpenAI könnte in Bezug auf seine eigenen potenziellen Ausrichtungsprobleme etwas schlüpfrig sein. „Unser Ziel im Moment“, sagte Greg Brockman, Chief Technology Officer des Unternehmens, im Friend’s Profile, „ist es, das Beste zu tun, was es zu tun gibt. Es ist ein bisschen vage.“

2018 verließ Musk den Vorstand von OpenAI. („Ich war mit einigen der Absichten des OpenAI-Teams nicht einverstanden“, twitterte er.) 2019 kündigte Altman an, dass OpenAI ein gewinnorientiertes Unternehmen werden und eine kommerzielle Partnerschaft mit Microsoft eingehen würde – eine riesige , eigennütziges Tech-Unternehmen. Im Januar kündigte Microsoft eine „mehrjährige Multimilliarden-Dollar-Investition“ in OpenAI an und erklärte sich Berichten zufolge bereit, zehn Milliarden Dollar zu investieren und am Ende eine Beteiligung von neunundvierzig Prozent zu haben. Im Profil machte Altman den selbstbewussten Punkt, dass die implizite zweistufige Rechtfertigung für die Existenz von OpenAI –AGI sollte niemandem anvertraut werden gefolgt von Wir bauen ein AGI auf und Sie sollten uns vertrauen– war unwahrscheinlich, Herzen und Köpfe zu gewinnen. „Wir planen einen Weg, um es weiten Teilen der Welt zu ermöglichen, Vertreter in ein neues Leitungsgremium zu wählen“, sagte Altman. „Denn wenn ich nicht dabei wäre, würde ich fragen: Warum entscheiden diese Scheißkerle, was mit mir passiert?“


source site

Leave a Reply