Bevor ein Bot Ihren Job stiehlt, stiehlt er Ihren Namen

Im Mai wurde Tessa ein Schurke. Der Chatbot der National Eating Disorder Association hatte kürzlich eine Telefon-Hotline und die Handvoll Mitarbeiter, die sie leiteten, ersetzt. Doch obwohl es darauf ausgelegt war, Menschen, bei denen das Risiko einer Essstörung besteht, eine Reihe anerkannter Reaktionen zu vermitteln, empfahl Tessa ihnen stattdessen, Gewicht zu verlieren. „Alles, was Tessa vorgeschlagen hat, hat zur Entwicklung meiner Essstörung geführt“, schrieb eine Frau, die den Chatbot rezensierte, auf Instagram. Tessa wurde schnell eingesperrt. „Es war nicht unsere Absicht zu behaupten, dass Tessa die gleiche Art von menschlicher Verbindung herstellen könnte, die die Helpline bot“, sagte Liz Thompson, CEO der gemeinnützigen Organisation, gegenüber NPR. Vielleicht wollte die Organisation keine menschliche Verbindung suggerieren, aber warum sollte man dem Bot sonst diesen Namen geben?

Die neue Generation von Chatbots kann sich nicht nur auf beunruhigend menschliche Weise unterhalten; in vielen Fällen haben sie auch menschliche Namen. Neben Tessa gibt es Bots namens Ernie (vom chinesischen Unternehmen Baidu), Claude (ein ChatGPT-Rivale des KI-Start-ups Anthropic) und Jasper (ein beliebter KI-Schreibassistent für Marken). Viele der fortschrittlichsten Chatbots – ChatGPT, Bard, HuggingChat – bleiben bei klobigen oder abstrakten Identitäten, aber es gibt jetzt viele neue Ergänzungen zu den ohnehin schon endlosen Kundenservice-Bots mit echten Namen (MayaBo, Dom).

„Da die generative KI weiter voranschreitet, kann man in den kommenden Jahren mit einer Flut neuer Bots mit menschlichen Namen rechnen“, sagte mir Suresh Venkatasubramanian, Informatikprofessor an der Brown University. Die Namen sind eine weitere Möglichkeit, Bots glaubwürdiger und realer erscheinen zu lassen. „Es gibt einen Unterschied zwischen dem, was man von einem ‚Hilfsassistenten‘ erwartet, und einem Bot namens Tessa“, sagte mir Katy Steinmetz, Kreativ- und Projektleiterin der Namensagentur Catchword. Diese Namen können eine böswillige Wirkung haben, aber in anderen Fällen sind sie einfach nervig oder banal – ein Marketingtrick für Unternehmen, um zu beeinflussen, wie Sie über ihre Produkte denken. In der Zukunft der KI kann es sein, dass ein Bot Ihren Job übernimmt oder auch nicht, aber sehr wahrscheinlich wird es sein, dass einer Ihren Namen annimmt.

Der allererste Chatbot, ELIZA, war zu nicht viel fähig. ELIZA, ein Therapeuten-Bot, der Mitte der 1960er Jahre vom MIT-Professor Joseph Weizenbaum entwickelt wurde, war eher ein Papagei als ein Psychoanalytiker und tat oft kaum mehr, als Fragen zu wiederholen und umzuformulieren, die Benutzer ihm stellten. Dennoch schrieben die Leute dieser verrückten Form der KI mehr Verständnis, Kreativität und Persönlichkeit zu, als Weizenbaum erwartet hatte. Ein Jahrzehnt nach ELIZAs Debüt bemerkte Weizenbaum, dass er „erstaunt war, zu sehen, wie schnell und wie intensiv sich die Menschen mit ihnen unterhielten.“ [ELIZA] haben sich emotional mit dem Computer beschäftigt und wie eindeutig sie ihn anthropomorphisiert haben.“ Heute hat die Projektion menschlicher Eigenschaften auf Computer einen Namen: den ELIZA-Effekt.

Die folgenden Jahrzehnte brachten Chatbots mit Namen wie Parry, Jabberwacky, Dr. Sbaitso und ALICE (Artificial Linguistic Internet Computer Entity); Im Jahr 2017 verlieh Saudi-Arabien einem humanoiden Roboter namens Sophia die Staatsbürgerschaft. Aber das war, bevor die KI überzeugend genug war, um sie zu spüren real. In dieser neuen Ära der generativen KI sind menschliche Namen nur eine weitere Schicht falscher Menschlichkeit auf Produkten, die bereits mit anthropomorphen Merkmalen ausgestattet sind.

Obwohl Microsofts offizieller Name für seinen Chatbot einfach Bing Chat lautet, schien die KI zunächst ein Alter Ego zu haben, das sich Sydney nannte. Es wurde unterdrückt, nachdem es seine Liebe zu einem Journalisten gestanden hatte, aber vielleicht nicht dauerhaft. „Wenn Sie möchten, dass es Sydney ist“, sagte der Chief Technology Officer von Microsoft im Mai über Bing Chat, „sollten Sie es als Sydney bezeichnen können.“ ChatGPT hingegen sendet Antworten Wort für Wort, als würde es nachdenken. Während der Eingabe blinkt ein Rechteck, ähnlich wie wenn ein Freund über iMessage tippt. „Dies sind Designentscheidungen, die sehr sorgfältig getroffen wurden, um diese Wahrhaftigkeit zu schaffen“, sagte Venkatasubramanian. „Diese Bots sollen einen Eindruck von Empfindungsvermögen erwecken, für den wir als Menschen besonders anfällig sind.“

Namen sind eine einfache Möglichkeit, Produkte intelligenter und persönlicher wirken zu lassen. Dies scheint insbesondere für die Kundenservice-Bots zu gelten, auf die Unternehmen seit Jahren zurückgreifen, insbesondere nach ChatGPT. Jede Bank scheint ihre eigene Erica (Bank of America), Sandi (Santander) oder Amy (HSBC) zu haben. Menschen, die Lust auf Slider von White Castle haben, können ihre Bestellung jetzt über den Drive-Through-Bot des Unternehmens, Julia, aufgeben. Der Bot zeigt seinen Namen auf dem Bildschirm an, bevor er Bestellungen entgegennimmt – „Ich bin Julia, eine neue Sprachassistentin“ – und ermutigt Kunden schamlos, zusätzliche Speisen und Getränke zu bestellen. Anfragen an Lufthansa können an ihre KI Elisa gerichtet werden – eine menschlich wirkende Geste, die wenig Trost spenden würde, wenn die Fluggesellschaft mein Gepäck verlieren würde. Aber einem Bot einen richtigen Namen zu geben, kann zu Verkäufen führen. Untersuchungen aus dem Jahr 2021 ergaben, dass die Ausstattung von Kundendienst-Chatbots mit anthropomorphen Merkmalen, einschließlich eines menschlichen Namens, „einen direkten, vorteilhaften Zusammenhang mit den Transaktionsergebnissen“ hat.

Die Verbreitung von Chatbots mit menschlichen Namen folgt der Beliebtheit von Amazons Alexa, aber die Bots „wachen“ nicht auf, wenn ihr Name aufgerufen wird – ein Problem, das für Personen mit dem Namen Alexa so präsent ist, dass es dazu beitrug, eine gemeinnützige Organisation zu inspirieren, die sich der Umbenennung des Geräts widmete . Dennoch sind viele der Kundenservice-Bots wie Alexa weiblich codierte Produkte, deren einziger Zweck darin besteht, Befehlen zu gehorchen, obwohl dies nicht allgemein gilt. Ein Sprecher von Anthropic sagte, das Unternehmen habe seinen Chatbot Claude genannt, weil es „einen warmen, freundlichen Namen für unser Model wollte“ und „eine Konvention zur Benennung von Assistenten mit weiblichen Namen bemerkt habe, der wir uns widersetzen wollten“.

Mit Alexa und anderen Heimassistenten „kann man das Produkt immer noch physisch sehen und wissen, dass es sich letztendlich um ein Technologie-Gadget handelt“, sagt Merve Hickok, leitende Forschungsdirektorin am Center for AI and Digital Policy. „Chatbots sind körperlos. Unsere Interaktionen mit Chatbots ähneln der Art und Weise, wie wir mit anderen Menschen kommunizieren.“ In der ChatGPT-Ära könnte man bereits davon ausgehen, dass Bots empfindungsfähig sind; Jemanden mit Namen anzusprechen hilft nicht. Laut Gavin Abercrombie, einem KI-Experten an der Heriot-Watt University in Edinburgh, könnte das Risiko besonders für die am stärksten gefährdeten Benutzer von Chatbots bestehen, beispielsweise für Kinder und Erwachsene, die an Demenz leiden. Wenn Sprachassistenten wie Alexa ein 10-jähriges Mädchen dazu ermutigen könnten, mit einem Penny eine stromführende Steckdose zu berühren, dann scheint eine generative KI, die eher wie eine Person kommunizieren kann und auch so benannt wird, nach hinten loszugehen. „Einem Gerät einen menschlichen Namen zu geben, ist nicht unbedingt die falsche Wahl, aber es muss wirklich durchdacht sein“, sagte mir Abercrombie. „Was versuchen wir zu tun? Welche Art von Beziehung erwarten wir von den Benutzern dazu?“

Julia von White Castle, die einfach den Kauf von Hamburgern und Pommes erleichtert, ist niemand, der sich einen intelligenten Bot vorstellt. Aber während wir in eine Ära allgegenwärtiger Kundendienst-Chatbots eintreten, die uns Burger und Flugtickets verkaufen, werden solche Versuche einer erzwungenen Zuordenbarkeit schnell veraltet sein – sie manipulieren uns so, dass wir uns mit einem unbelebten KI-Tool wohler und emotionaler verbunden fühlen. Dem Drang zu widerstehen, jedem Bot eine menschliche Identität zu geben, ist ein kleiner Weg, die Funktion eines Bots für sich allein stehen zu lassen und ihn nicht mit überflüssigen menschlichen Konnotationen zu beladen – insbesondere in einem Bereich, der bereits von ethischen Problemen überschwemmt ist.

Doch vorerst sind Bots mit menschlichen Namen unvermeidlich. Mein Name ist bisher aus dem Silicon Valley verschwunden, aber ich bezweifle, dass es noch lange dauern wird, bis ich meine Bedenken gegenüber einem KI-gesteuerten Jacob zum Ausdruck bringen werde.


source site

Leave a Reply