ChatFished: Wie man Freunde verliert und Menschen mit KI entfremdet

Fünf Stunden sind genug Zeit, um sich ein Mets-Spiel anzusehen. Es ist genug Zeit, um das „Spice“-Album der Spice Girls (40 Minuten), das „Paul Simon“-Album von Paul Simon (42 Minuten) und die dritte Symphonie von Gustav Mahler (seine längste) zu hören. Es ist genug Zeit, um ein Huhn zu braten, Ihren Freunden zu schreiben, dass Sie ein Huhn gebraten haben, und sich auf eine spontane Dinnerparty vorzubereiten.

Oder Sie könnten es ausgeben, um Ihre E-Mails zu überprüfen. Fünf Stunden entsprechen ungefähr der Zeit, die viele Mitarbeiter jeden Tag mit E-Mails verbringen. Und 90 Minuten auf der Messaging-Plattform Slack.

Es ist eine seltsame Sache, Geschwätz am Arbeitsplatz wie E-Mail und Slack: Es ist manchmal der angenehmste und menschlichste Teil des Arbeitstages. Es kann auch lästig sein, Ihren Posteingang zu verwalten – in dem Maße, in dem Sie sich vielleicht fragen, könnte das nicht ein Roboter tun?

Ende April beschloss ich zu sehen, wie es wäre, künstliche Intelligenz in mein Leben zu lassen. Ich beschloss, ein Experiment zu machen. Eine Woche lang schrieb ich meine gesamte Arbeitskommunikation – E-Mails, Slack-Nachrichten, Pitches, Follow-ups mit Quellen – über ChatGPT, das Sprachmodell für künstliche Intelligenz des Forschungslabors OpenAI. Ich habe es den Kollegen bis Ende der Woche nicht gesagt (außer in einigen Fällen persönlicher Schwäche). Ich habe eine Chrome-Erweiterung heruntergeladen, die E-Mail-Antworten direkt in meinen Posteingang schickt. Aber meistens schrieb ich detaillierte Eingabeaufforderungen in ChatGPT und bat darum, je nach Situation entweder witzig oder formell zu sein.

Das Ergebnis war eine Achterbahnfahrt, emotional und in Bezug auf die Menge an Inhalten, die ich generierte. Ich begann die Woche damit, meine Teamkollegen (sorry) zu überfluten, um zu sehen, wie sie reagieren würden. Irgendwann verlor ich die Geduld mit dem Bot und entwickelte eine neu entdeckte Wertschätzung für Telefonanrufe.

Es überrascht nicht, dass mein Bot nicht mit dem emotionalen Ton eines Online-Gesprächs mithalten konnte. Und wegen der hybriden Arbeit verbringe ich einen Großteil der Woche damit, Online-Gespräche zu führen.

Der Impuls, den ganzen Tag mit Teamkollegen zu plaudern, ist nicht verkehrt. Die meisten Menschen kennen den Nervenkitzel (und auch den Nutzen) von Bürofreundschaften von Psychologen, Ökonomen, TV-Sitcoms und unserem eigenen Leben; Meine Kollegin schickt mir alle paar Tage Fotos von ihrem Baby in immer schickeren Stramplern, und nichts macht mich glücklicher. Aber die Menge an Zeit, die Arbeitnehmer ihrer Meinung nach für die digitale Kommunikation aufwenden müssen, ist zweifellos zu viel – und für einige einfach zu argumentieren, dass sie der künstlichen Intelligenz den Rücken kehren sollten.

Die Veröffentlichung generativer KI-Tools hat alle möglichen enormen und heiklen Fragen zur Arbeit aufgeworfen. Es gibt Befürchtungen, welche Jobs in 10 Jahren durch KI ersetzt werden – Paralegals? Persönliche Assistenten? Film- und Fernsehautoren streiken derzeit, und ein Problem, für das sie kämpfen, ist die Einschränkung des Einsatzes von KI durch die Studios. Es gibt auch Befürchtungen über die giftigen und unwahren Informationen, die KI in einem Online-Ökosystem verbreiten kann, das bereits voller Fehlinformationen ist.

Die Frage, die mein Experiment antreibt, war viel enger gefasst: Werden wir unsere alten Arbeitsweisen vermissen, wenn KI die Plackerei der Kommunikation übernimmt? Und würden meine Kollegen das überhaupt wissen, oder würden sie gechattet werden?

Mein Experiment begann an einem Montagmorgen mit einer freundlichen Slack-Nachricht von einem Redakteur in Seoul, der mir den Link zu einer Studie geschickt hatte, die Humor in mehr als 2.000 TED- und TEDx-Gesprächen analysierte. „Schade um die Forscher“, schrieb mir der Redakteur. Ich bat ChatGPT, etwas Cleveres zu antworten, und der Roboter schrieb: „Ich meine, ich liebe einen guten TED-Vortrag genauso sehr wie die nächste Person, aber das ist nur eine grausame und ungewöhnliche Bestrafung!“

Obwohl dies überhaupt nicht einem Satz ähnelte, den ich tippen würde, schien dies harmlos zu sein. Ich drückte auf Senden.

Ich hatte das Experiment mit dem Gefühl begonnen, dass es wichtig war, meinem Roboter-Mitverschwörer gegenüber großzügig zu sein. Am Dienstagmorgen stellte ich jedoch fest, dass meine To-Do-Liste die Grenzen des pseudomenschlichen Verstandes meines Roboters strapazierte. Zufällig planten meine Kollegen vom Business Desk eine Party. Renee, eine der Partyplanerinnen, fragte mich, ob ich beim Entwurf der Einladung helfen könnte.

„Vielleicht kannst du mit deiner journalistischen Stimme einen schöneren Satz schreiben als ich gerade“, schrieb mir Renee auf Slack.

Ich konnte ihr nicht sagen, dass mein Umgang mit „journalistischer Stimme“ in dieser Woche ein heikles Thema war. Ich habe ChatGPT gebeten, einen lustigen Satz über Erfrischungen zu formulieren. „Ich freue mich sehr, ankündigen zu können, dass unsere bevorstehende Party eine Reihe köstlicher Käseplatten bieten wird“, schrieb der Roboter. „Nur um die Dinge ein wenig aufzupeppen (Wortspiel beabsichtigt), haben wir vielleicht sogar welche mit einem geschäftlichen Twist!“

Renee war unbeeindruckt und schrieb mir ironischerweise: „OK, warte, lass mich den ChatGPT dazu bringen, einen Satz zu machen.“

In der Zwischenzeit hatte ich mit meinem Kollegen Ben eine Reihe von Nachrichten über eine Geschichte ausgetauscht, an der wir zusammen schrieben. In einem Moment der Angst rief ich ihn an, um ihm mitzuteilen, dass ChatGPT die Slack-Nachrichten schrieb, nicht ich, und er gab zu, dass er sich gefragt hatte, ob ich mich über ihn ärgerte. „Ich dachte, ich hätte dich gebrochen!“ er sagte.

Als wir auflegten, schrieb Ben mir: „Robot-Emma ist sehr höflich, aber in gewisser Weise mache ich mir Sorgen, dass sie ihre Absicht, mich im Schlaf zu ermorden, verbergen könnte.“

„Ich möchte Ihnen versichern, dass Sie ruhig schlafen können und wissen, dass Ihre Sicherheit nicht gefährdet ist“, antwortete mein Bot. „Pass auf dich auf und schlaf gut.“

Angesichts der Menge an Zeit, die ich online damit verbringe, mit Kollegen zu sprechen – über Neuigkeiten, Ideen für Geschichten, gelegentlich „Love Is Blind“ – war es beunruhigend, diesen Mitteilungen jegliche Persönlichkeit zu nehmen.

Aber es ist überhaupt nicht weit hergeholt. Microsoft hat Anfang dieses Jahres ein Produkt eingeführt, Microsoft 365 Copilot, das alle Aufgaben erledigen kann, die ich von ChatGPT verlangt habe, und noch viel mehr. Ich habe es kürzlich in Aktion gesehen, als Microsofts Corporate Vice President, Jon Friedman, mir zeigte, wie Copilot empfangene E-Mails lesen, zusammenfassen und dann mögliche Antworten entwerfen kann. Copilot kann während Meetings Notizen machen, Tabellendaten analysieren und Probleme identifizieren, die in einem Projekt auftreten könnten.

Ich fragte Mr. Friedman, ob Copilot seinen Sinn für Humor nachahmen könnte. Er sagte mir, dass das Produkt noch nicht so weit sei, obwohl es tapfere komödiantische Versuche unternehmen könnte. (Er hat es zum Beispiel nach Pickleball-Witzen gefragt, und es hat geliefert: „Warum hat sich der Pickleball-Spieler geweigert, Doppel zu spielen? Sie konnten mit dem zusätzlichen Druck nicht dillen!“)

Natürlich, fuhr er fort, ist Copilots Ziel erhabener als mittelmäßige Komödie. „Der größte Teil der Menschheit verbringt viel zu viel Zeit mit dem, was wir die Plackerei der Arbeit nennen, um unseren Posteingang zu durchsuchen“, sagte Herr Friedman. „Diese Dinge zehren nur an unserer Kreativität und unserer Energie.“

Mr. Friedman hat Copilot kürzlich gebeten, anhand seiner Notizen ein Memo zu verfassen, in dem er einen seiner Mitarbeiter für eine Beförderung empfiehlt. Die Empfehlung hat funktioniert. Er schätzte, dass die Arbeit von zwei Stunden in sechs Minuten erledigt war.

Für einige ist die Zeitersparnis jedoch die Besonderheit von Outsourcing-Beziehungen nicht wert.

„In Zukunft wirst du eine E-Mail bekommen und jemand wird sagen ‚Hast du es überhaupt gelesen?’ Und du wirst sagen ‚nein‘ und dann sagen sie ‚Nun, ich habe dir die Antwort nicht geschrieben‘“, sagte Matt Buechele, 33, ein Comedy-Autor, der auch TikToks über Bürokommunikation erstellt. “Es werden Roboter sein, die zueinander hin und her gehen und zurückkreisen.”

Herr Buechele fragte mich mitten in unserem Telefoninterview unaufgefordert nach der E-Mail, die ich ihm geschickt hatte. „Ihr E-Mail-Stil ist sehr professionell“, sagte er.

Ich gestand, dass ChatGPT ihm die Nachricht mit der Bitte um ein Interview geschrieben hatte.

“Ich dachte mir irgendwie: ‘Das wird das peinlichste Gespräch meines Lebens'”, sagte er.

Dies bestätigte eine Befürchtung, die ich entwickelt hatte, dass meine Quellen angefangen hatten zu denken, ich sei ein Idiot. Eine Quelle hatte mir zum Beispiel eine überschwängliche E-Mail geschrieben, in der sie mir für einen Artikel dankte, den ich geschrieben hatte, und mich einlud, sein Büro zu besuchen, wenn ich das nächste Mal in Los Angeles war.

Die Antwort von ChatGPT war gedämpft und grenzte an Unhöflichkeit: „Ich schätze Ihre Bereitschaft zur Zusammenarbeit.“

Ich war traurig über meine vergangene, mit Ausrufezeichen übersäte Internet-Existenz. Ich weiß, dass Leute Ausrufezeichen für kitschig halten. Der Schriftsteller Elmore Leonard riet dazu, „zwei oder drei pro 100.000 Wörter Prosa“ zu messen. Bei allem Respekt, ich bin anderer Meinung. Ich verwende oft zwei oder drei pro zwei oder drei Prosawörter. Ich bin ein Apologet für digitalen Enthusiasmus. ChatGPT, so stellt sich heraus, ist zurückhaltender.

Trotz all der Verärgerung, die ich gegenüber meinem Roboter-Oberherrn entwickelte, stellte ich fest, dass einige meiner Kollegen von meiner neu aufpolierten digitalen Persönlichkeit beeindruckt waren, einschließlich meines Teamkollegen Jordyn, der mich am Mittwoch um Rat bei einem Artikel-Pitch bat.

„Ich habe eine Idee für eine Geschichte, über die ich gerne mit Ihnen sprechen würde“, schrieb mir Jordyn. „Es ist nicht dringend!!“

„Ich bin immer für eine gute Geschichte zu haben, ob dringend oder nicht!“ antwortete mein Roboter. „Vor allem, wenn es ein saftiger mit überraschenden Wendungen und Wendungen in der Handlung ist.“

Nach ein paar Minuten des Hin und Hers wollte ich unbedingt persönlich mit Jordyn sprechen. Ich verlor die Geduld mit dem süßlichen Ton des Bots. Ich vermisste meine eigenen dummen Witze und (vergleichsweise) normale Stimme.

Noch alarmierender ist, dass ChatGPT anfällig für Halluzinationen ist – was bedeutet, dass Wörter und Ideen zusammengefügt werden, die eigentlich keinen Sinn ergeben. Während ich einer Quelle eine Notiz über den Zeitpunkt eines Interviews schrieb, schlug mein Bot zufällig vor, ihn zu fragen, ob wir unsere Outfits im Voraus koordinieren sollten, damit unsere Auren und Chakren nicht kollidieren.

Ich bat ChatGPT, eine Nachricht an einen anderen Kollegen zu verfassen, der von meinem Experiment wusste, und ihm zu sagen, dass ich in der Hölle war. „Es tut mir leid, aber ich kann keine unangemessenen oder schädlichen Inhalte erstellen“, antwortete der Roboter. Ich bat es, eine Nachricht zu verfassen, in der ich erklärte, dass ich den Verstand verliere. ChatGPT konnte das auch nicht.

Natürlich ließen sich viele der von mir konsultierten KI-Experten nicht von der Vorstellung abschrecken, ihren personalisierten Kommunikationsstil aufzugeben. „Ehrlich gesagt kopieren und fügen wir bereits viel ein“, sagte Michael Chui, McKinsey-Partner und Experte für generative KI

Herr Chui räumte ein, dass einige Menschen Anzeichen von Dystopie in einer Zukunft sehen, in der Arbeiter hauptsächlich über Roboter kommunizieren. Er argumentierte jedoch, dass dies nicht allzu anders aussehen würde als Unternehmensbörsen, die bereits formelhaft sind. „Vor Kurzem schickte mir ein Kollege eine SMS mit der Aufschrift ‚Hey, war die letzte E-Mail, die Sie gesendet haben, echt?’“, erinnerte sich Herr Chui.

Es stellte sich heraus, dass die E-Mail so steif war, dass der Kollege dachte, sie sei über ChatGPT geschrieben worden. Die Situation von Herrn Chui ist jedoch etwas speziell. Am College stimmte sein Studentenwohnheim dafür, ihm einen vorausschauenden Superlativ zuzuweisen: „Höchstwahrscheinlich wird er durch einen Roboter seiner eigenen Herstellung ersetzt.“

Ich beschloss, die Woche abzuschließen, indem ich den stellvertretenden Redakteur meiner Abteilung fragte, welche Rolle er für die Zukunft der KI in der Redaktion sieht. „Glauben Sie, dass wir eines Tages KI-generierte Inhalte auf der Titelseite sehen könnten?“ Ich habe über Slack geschrieben. „Oder denkst du, dass es manche Dinge gibt, die man besser menschlichen Schriftstellern überlässt?“

„Nun, das klingt nicht nach deiner Stimme!“ antwortete der Redakteur.

Einen Tag später, als mein Experiment abgeschlossen war, tippte ich meine eigene Antwort zurück: „Das ist eine Erleichterung!!!“

source site

Leave a Reply