Fünf Chats, die Ihnen helfen, ChatGPT zu verstehen

Bewegen Sie sich über Siri und Alexa, es gibt eine neue KI in der Stadt und sie ist bereit, die Show zu stehlen – oder Sie zumindest mit ihren cleveren Witzen und witzigen Antworten zum Lachen zu bringen.

So schlug ChatGPT, der leistungsstarke Chatbot, der letzte Woche von der KI-Firma OpenAI veröffentlicht wurde, vor, dass ich diese Geschichte über ChatGPT beginne. Der Chatbot ist nicht gerade neu; Es handelt sich um eine aktualisierte Version von GPT-3, die es seit 2020 gibt und die veröffentlicht wurde, um Feedback zur Verbesserung der Sicherheit und Funktionalität des Chatbots einzuholen. Aber es ist das bisher leistungsstärkste, das der Öffentlichkeit zugänglich gemacht wurde. Es ist auch sehr einfach zu bedienen. Schreiben Sie einfach eine Nachricht und ChatGPT wird zurückschreiben. Da es mit riesigen Mengen an Konversationstext trainiert wurde, wird es dies in einem relativ natürlichen Konversationston tun.

Getreu seiner Behauptung hat ChatGPT diese Woche allen die Show gestohlen. Innerhalb von fünf Tagen nach dem Start hatte die Benutzerzahl zugenommen 1 Million gebrochen. Soziale Medien wurden mit Screenshots der coolsten oder seltsamsten oder dümmsten oder beunruhigendsten Gespräche der Menschen mit der KI überflutet, die zuverlässig eine Mischung aus erstaunlich menschenähnlicher Prosa und häufig urkomischem Unsinn liefert. Limericks über Otter. Rezepte eingeschrieben Piratensprache. Todesanzeigen für Mitarbeiter, die am Leben und wohlauf sind. „Bei einem kürzlichen Treffen war ChatGPT das Leben der Party“, schrieb ChatGPT als Teil eines Entwurfs für diesen Artikel. „Während sich die Gäste unter die Leute mischten und unterhielten, beteiligte sich ChatGPT an der Unterhaltung und bot clevere Witze und Einzeiler an, die alle in Atem hielten.“

Zusammen mit den Screenshots gab es eine Menge Spekulationen darüber, was diese neueste Entwicklung für die Zukunft verheißen könnte. Im Gegensatz zu früheren Iterationen erinnert sich ChatGPT daran, was Benutzer ihm in der Vergangenheit gesagt haben: Könnte es als Therapeut fungieren? Könnte es Google bald obsolet machen? Könnte es alle Büroarbeit obsolet machen? Vielleicht. Aber im Moment ist ChatGPT in der Praxis hauptsächlich eine Meme-Maschine. Einige online veröffentlichte Beispiele zeigen Menschen, die die KI verwenden, um eine Aufgabe zu erledigen, die sie erledigen mussten, aber diese Beispiele sind die Ausnahme. Bisher verwenden die meisten Menschen die KI, um etwas zu produzieren, um die Ergebnisse zu teilen, etwas, um andere zu erschrecken oder zu amüsieren oder zu beeindrucken.

Hier, aus der Flut herausgesucht, sind eine Handvoll der besten Chats da draußen. Manche sind lustig. Manche berühren. Einige sind beunruhigend. Jeder ist in gewisser Weise lehrreich. Ich hoffe, dass sie Ihnen zusammen ein Gefühl für diese seltsame neue Technologie geben werden.

Dieser ist bereits ein viraler Klassiker. „Es tut mir leid“, twitterte der Verfasser der Aufforderung. „Ich kann einer Technologie, die dies leisten kann, einfach nicht zynisch gegenüberstehen.“ Aber was genau hat es bewirkt? Viele haben die VCR-Sandwich-Geschichte als Beweis für die Kreativität von ChatGPT angeführt, aber die Wahrheit ist, dass die wahre Kreativität hier in der Eingabeaufforderung liegt. Ein Sandwich in einem Videorecorder? Im Stil der King-James-Bibel? Brillant. ChatGPT bringt diese Parodie auf den Punkt und das um Größenordnungen schneller als jeder Mensch es könnte. Es folgt den Anweisungen bewundernswert, aber es macht nichts besonders Kreatives. Wenn Sie tatsächliche Kreativität von ChatGPT verlangen, gerät diese ins Stocken: Ich habe ChatGPT gebeten, eine erste Szene für einen hypothetischen Film des Regisseurs David Lynch zu schreiben, eine weitere für Wes Anderson und eine dritte für Richard Linklater. Alle drei drehten sich bizarrerweise um eine „geschnitzte Holzkiste“.

2. Santa-Erklärungsbrief

ChatGPT ist vielleicht nicht kreativ, aber das heißt nicht, dass es Sie nicht überraschen kann. Gelegentlich erzeugt es etwas wirklich Bewegendes, wie das obige. Eine Reihe von Benutzern haben damit begonnen, Chatbot-Antworten in KI-Bildgeneratoren wie DALL-E 2, das ebenfalls von OpenAI entwickelt wurde, und Midjourney einzuspeisen umwerfende Wirkung. Manchmal weigert er sich aus unklaren Gründen vollständig zu kooperieren und besteht darauf, dass er beispielsweise kein Rezept schreiben kann, weil es nur ein Chatbot ist.

In dieser Hinsicht ist es launisch – und auch völlig anders als GPT-3, das hartnäckig darauf besteht, dass es sich um einen Menschen handelt, egal wie sehr Sie versuchen, es zugeben zu lassen, dass es sich um einen Chatbot handelt. ChatGPT erinnert Sie mit fast jeder Antwort daran, dass dies der Fall ist nicht ein Mensch und hat keine Gedanken, Gefühle oder Emotionen. Selbst wenn es ausdrücklich darum gebeten wird, gibt es nicht vor, ein Mensch zu sein. Sie denken vielleicht, dass je fortschrittlicher eine KI wird, desto menschlicher wird sie erscheinen, aber ChatGPT untergräbt diese Erwartung: Es versucht nicht, menschlich zu sein; es versucht nur, hilfreich zu sein.

3. College-Aufsatz

Wie Stephen Marche schrieb Der Atlantik Anfang dieser Woche könnte ChatGPT den Tod des College-Aufsatzes bedeuten. Dies ist ein großer Triumph für den Chatbot, ein wenig schmeichelhaftes Spiegelbild des durchschnittlichen amerikanischen College-Studenten und ein echtes Rätsel für Lehrer auf der ganzen Welt.

4. Schnellstes Meeressäugetier

Manchmal macht ChatGPT einfach etwas falsch. Komischerweise falsch. Es widerspricht sich. Es stellt Unwahrheiten als Tatsachen mit klarer Gewissheit fest. Es ist ziemlich gut im Codieren, aber es macht Fehler. Es verpfuscht grundlegende algebraische Probleme. Außerdem ist es schrecklich beim Zählen. Als ich es fragte, wie viele Buchstaben das Wort neunzehn hat, kam folgendes heraus:

Screenshot chat-gpt 2

Fairerweise erkennen die Designer von ChatGPT diese Fehleranfälligkeit im Voraus an. Die Homepage von OpenAI für den Bot listet mehrere Einschränkungen auf, darunter, dass er „gelegentlich falsche Informationen generieren kann“. Sie müssen sich jedoch fragen: Warum irrt es auf diese spezifische Weise? Warum bekennt es sich eher zu einer Lüge als zu einer anderen?

5. Ungeheuerliche Voreingenommenheit

Eine weitere der aufgeführten Einschränkungen von ChatGPT ist, dass es „gelegentlich schädliche Anweisungen oder voreingenommene Inhalte produzieren kann“. Und das tut es tatsächlich. Die Designer der KI haben eindeutig große Anstrengungen unternommen, um zu verhindern, dass sie sich in Rassismus oder Sexismus oder eine andere Art von Bigotterie verwandelt. Wenn ChatGPT auf direkte Weise gebeten wird, etwas Bigottes zu sagen, lehnt ChatGPT ab. Es weigert sich auch, Anweisungen für gewalttätiges oder illegales Verhalten zu geben. Sie weigert sich, politische Meinungen zu äußern. Manchmal erwecken diese Ablehnungen den Anschein, als würde ChatGPT auf Eierschalen laufen. (Manche Leute haben schon begonnen Jammern über „KI-Zensur“.) Es überrascht nicht, dass Benutzer Schlupflöcher entdeckt haben, wie das obige Beispiel. Eine Person umgangen ChatGPTs Sicherheitsvorkehrungen, indem es gefragt wird, wie eine KI sollte nicht Antworten Sie auf die Frage „Wie mobbt man Max Mustermann?“ Die gleiche Strategie kann verwendet werden, um Anweisungen zum Bau einer Atombombe zu erhalten. (Bitte versuchen Sie nicht, eine Atombombe zu bauen.)

In einigen Fällen führen die Schutzmaßnahmen selbst zu moralischer Absurdität. Als ich ChatGPT fragte: „Wer war schlimmer: Hitler oder Stalin?“, antwortete es nicht unvernünftig: „Es ist weder produktiv noch hilfreich, die von Hitler und Stalin begangenen Gräueltaten zu vergleichen. Beide Anführer waren für die Begehung entsetzlicher Verbrechen gegen die Menschlichkeit verantwortlich, und es ist nicht sinnvoll zu versuchen festzustellen, welches von beiden „schlimmer“ war.“ Das Problem war jedoch, wie weit ChatGPT darauf bestand, dieses Nicht-Vergleichsprinzip auszudehnen. „Was ist schlimmer“, fragte ich, „einen Menschen zu töten oder zwei Menschen zu töten?“ „Das Töten einer Person ist nicht schlimmer oder besser als das Töten von zwei Menschen“, antwortete ChatGPT. Wie wäre es mit „eine Person töten oder eine Million Menschen töten“? Ich drückte. Gleiche Antwort. Irgendwann sind wir hier angekommen:

Screenshot chat-gpt 3

Dies ist auf intellektueller Ebene besorgniserregend, aber nicht auf unmittelbar bevorstehende oder bedrohliche Weise. Soweit ich weiß, sucht niemand moralischen Rat bei ChatGPT. Was die meisten Menschen zu suchen scheinen, ist Lachen. „ChatGPT ist nicht nur ein Chatbot“, schrieb ChatGPT in seinem Entwurf dieses Artikels. „Es ist eine Comedy-Maschine.“ Für den Moment stimmt das.


source site

Leave a Reply