KI-Astrologie wird etwas zu persönlich

Aktualisiert am 12. Dezember 2023 um 16:24 Uhr ET

Das erste, was ich Banu Guler, die Gründerin der Astrologie-App Co-Star, frage, ist, ob sie mein Horoskop lesen kann. Wir tauschen die Telefone, um uns gegenseitig das Profil anzusehen. Nachdem wir unsere Geräte beiseite gelegt haben, kritzelt sie meine astrologische Karte aus dem Gedächtnis in ihr Notizbuch, einen Kreis, der wie ein unregelmäßig geschnittener Kuchen durch verschiedene Linien halbiert wird. Es sieht nicht gut aus. Zwischen meiner Sonne und meinem Mars besteht ein 90-Grad-Quadrat, das heißt, sie senkt ihre Stimme und kichert: „rauh.“ Anscheinend ist es die Form, die „traurig und vorübergehend“ symbolisiert.

Seit seiner Einführung im Jahr 2017 hat Co-Star zu einem Wiederaufleben der westlichen Astrologie beigetragen. Das Unternehmen gibt an, über 30 Millionen registrierte Konten zu verfügen; Eine unabhängige Analyse von data.ai zeigt, dass fast 800.000 Menschen die App in einem bestimmten Monat nutzen. Co-Star bietet tägliche Vorhersagen über Ihr Leben, willkürliche „Do“- und „Don’t“-Listen, die vorgeben, wie Sie Ihren Tag gestalten sollen, und Diagramme, die Ihnen zeigen, wie kompatibel Sie mit Ihren Freunden sind. Seine Sprache schwankt zwischen direkt und vage, vieles davon ist mit einer süßen Schale aus Biss überzogen.

Anfang des Jahres stellte das Unternehmen einen „Ask the Stars“-Chatbot vor, der sich am besten als moderner Magic 8 Ball beschreiben lässt: Sie zahlen eine kleine Gebühr, um Fragen zu Ihrem Leben einzugeben, und erhalten dank künstlicher Intelligenz direkte Antworten als Antwort. (Nach ein paar kostenlosen Fragen erhalten Sie für 2,99 $ fünf weitere.) „Willkommen in der Leere“, winkt der Chatbot, wenn Sie die Funktion aufrufen. Ich fragte es, ob ich meinen Seelenverwandten getroffen hätte. NEIN, sagte es mir. Entfremden sich mein Freund und ich? Ja, antwortete es und gab damit einem aufkeimenden Verdacht Gestalt. Was soll ich zum Frühstück haben? Haferflocken. Da der Mond gegenüber Ihrem Geburtsneptun steht, erleben Sie einen Konflikt zwischen Ihren Emotionen und dem Wunsch nach Klarheit. Eier würden einfach nicht reichen.

Wie bei jedem künstlich intelligenten Programm trifft Co-Star Entscheidungen auf der Grundlage seiner Trainingsdaten. In diesem Fall behauptet die App, dass „jede Antwort auf der proprietären Datenbank astrologischer Interpretationen von Co-Star basiert, die über einen Zeitraum von fünf Jahren von Dichtern, Astrologen und Technologen individuell erstellt wurde.“ Es wird natürlich auch durch mein persönliches astrologisches Horoskop beeinflusst: mein Geburtstag, meine Geburtszeit, mein Geburtsort. Die Antworten können seltsam sein, und sie sind weit davon entfernt, dass Banu Guler (oder irgendein anderer Mensch) Ihr Horoskop live liest, aber sie Tun Fühlen Sie sich persönlich. Die Sprache ist menschenähnlich – sie basiert auf Modellen von OpenAI, dem gleichen Unternehmen, das hinter ChatGPT steht – und die Zitierung sowohl meiner astrologischen Karte als auch der NASA-Daten verleiht den Antworten eine besondere Autorität. Ich kann nicht lügen: Sie sind überzeugend.

Dieser Grad der Personalisierung ist einzigartig – und beunruhigend. Die Astrologie profitiert seit langem vom sogenannten Barnum-Effekt, der Tendenz der Menschen zu glauben, dass generische Beschreibungen speziell auf sie zutreffen. (Denken Sie nur an Horoskope, die in einer Zeitung abgedruckt sind.) Durch die Einführung generativer KI durch Co-Star kann die App mehr als zuvor behaupten, dass ihre Ratschläge direkt auf sie abzielen Du da es Sie auffordert, einen neuen Therapeuten zu finden, oder verrät, dass Sie über übersinnliche Fähigkeiten verfügen. Die App spiele „eine größere Rolle, als die meisten Wahrsagungsexperten übernehmen würden“, sagt Beth Singler, Professorin für digitale Religionen an der Universität Zürich. Als es mich anwies, eine Pause von meinem Partner zu machen, sagte mir Singler: „Mir fällt keine ein [divination leaders] Ich habe noch nie erlebt, wer eine so eindeutige Antwort geben würde.“

Laut Guler setzt Co-Star seit der Gründung des Unternehmens KI ein, als eine rudimentärere Technologie tägliche Messwerte aus einer vorgefertigten Textdatenbank zusammenfügte. (Sie erzählte mir, dass Co-Star seit mehreren Jahren mit OpenAI zusammenarbeitet, wollte jedoch nicht näher auf die Art der Beziehung eingehen.) Dennoch ist die Ankunft von „Ask the Stars“ ein Prisma für die komplexen Wege, auf denen neue Fortschritte erzielt werden Generative KI kann selbst bei den banalsten Entscheidungen in das spirituelle und moralische Leben der Menschen eindringen. Obwohl viel über die praktischen Auswirkungen der Technologie gesagt wurde – sei es für unsere Arbeitsplätze oder für eine Neudefinition der Kriegsführung – könnte sie uns auch auf eine Weise beeinflussen, die intimer und viel schwieriger zu quantifizieren ist.

Für viele Menschen sollte dieser Einfluss leicht zu vermeiden sein. Das ist schließlich Astrologie. Nicht jeder beschäftigt sich mit Wahrsagerei, und selbst unter denen, die sich für westliche Astrologie interessieren, nehmen viele sie nicht ernst. (Für mich ist es eine unterhaltsame Art, mit Freunden in Kontakt zu treten, aber Gulers Analyse meines Lebens hat mir nicht den Schlaf geraubt.) Manche Leute nehmen es jedoch so ernst. Im Jahr 2018 ergab eine Umfrage von Pew Research, dass mehr als ein Viertel der Amerikaner glaubt, dass die Position der Sterne und Planeten Einfluss auf das Leben der Menschen hat; Auch die Verwendung anderer astrologischer Systeme in bestimmten Kulturen zur Steuerung wichtiger Lebensentscheidungen ist alles andere als neu. Ebenso relevant hat die KI in eine Vielzahl spiritueller Praktiken Einzug gehalten. Religiöse Führer haben mit ChatGPT Predigten geschrieben; KI-Avatare leiteten eine Messe in Deutschland.

Die Einbeziehung von KI in die privateren, persönlicheren Bereiche unseres Lebens birgt eigene Risiken. Man könnte meinen, die Menschen wären weniger vertrauenswürdig gegenüber Ratschlägen, die von einer Maschine kommen, aber wie Kathleen Creel, Professorin, die sowohl Philosophie als auch Informatik an der Northeastern University studiert, mir erklärte, kann die äußerst subjektive Natur der Spiritualität dazu führen, dass die Mängel und Fehler der KI schwerer zu erkennen sind identifizieren. Wenn Ihnen eine KI-gestützte Suchmaschine beispielsweise sagt, dass kein Land in Afrika einen Namen hat, der mit diesem Buchstaben beginnt K, seine Kräfte sind sofort zweifelhaft. Aber stellen Sie sich einen KI-Chatbot vor, der auf Ihre eigenen Vorlieben und Gewohnheiten trainiert ist und Ihnen sagt, dass Sie mit morgendlichem Training Erfolg haben werden. Trüber wird es, wenn dieser Erfolg ausbleibt. Vielleicht müssen Sie einfach länger warten. Vielleicht liegt das Problem bei Ihnen.

Immer wenn Menschen KI als besser, schneller und effizienter als Menschen wahrnehmen, „ordnet unsere Annahme ihrer Überlegenheit sie in diesen göttlichen Raum ein“, sagte Singler. Diese Annahme, warnte sie, „verdunkelt alle Menschen in der Maschine.“ KI-Chatbots rufen wie von Zauberhand klare, eindeutige Antworten hervor, ohne dass es Anzeichen dafür gibt, dass die Technologie selbst aus unseren eigenen Überzeugungen, Fehlern und Vorurteilen besteht, die in Algorithmen eingespeist werden. Klare, eindeutige Antworten haben einen offensichtlichen Reiz, besonders wenn die Welt unvorhersehbar erscheint; im ersten Jahr der Pandemie beispielsweise nach Geburtentabelle Und Astrologie erreichte weltweit ein Fünfjahreshoch. In Krisenzeiten muss man sich fragen, wie bereit manche Menschen sein könnten, sich von Chatbots wie dem von Co-Star beraten zu lassen – um die Entscheidungsfindung, egal wie groß oder klein, auszulagern.

Ich fragte Guler bei einem Drink in der Nähe des Co-Star-Hauptsitzes in Manhattan, ob sie sich Sorgen über das Risiko einer wachsenden Abhängigkeit von KI für Lebensberatung mache. Ihre Antworten ähnelten ein wenig dem Lesen von Co-Star selbst, abwechselnd vage und konkret. Sie erklärte, dass das Unternehmen den Benutzern im Gegensatz zu einer Reihe anderer KI-Chatbots nicht erlaubt, fortlaufende Gespräche mit dem „Ask the Stars“-Bot zu führen. Der Bot wird nach jeder Frage zurückgesetzt, es sind keine Folgefragen zulässig, um zu verhindern, dass die Leute zu sehr in den Kaninchenbau fallen. Co-Star-Mitarbeiter achten auch auf den Prozentsatz der Personen, die Screenshots bestimmter Antworttypen erstellen, und darauf, ob ein Benutzer wiederholt Versionen derselben Frage stellt, sagte mir Guler, ging jedoch der Frage, was sie mit den Informationen machen, aus dem Weg. Co-Star behauptet weiter, dass der Chatbot 20 Prozent der Fragen aufgrund „potenzieller Risiken“ ablehne – beispielsweise Fragen zu Selbstverletzung.

Über die in die Operation von Co-Star eingebauten Schutzmaßnahmen hinaus versuchte Guler eine umfassendere Verteidigung – eine, die, ehrlich gesagt, unsinnig erschien. Sie argumentierte, dass die Qualität der von der KI bereitgestellten Astrologie an und für sich ein Schutz vor übermäßiger Abhängigkeit sein sollte. „Das Ziel ist es, Co-Star-Inhalte zu erstellen trifft tatsächlich, wie wir es intern nennen, es gibt dir eine Ohrfeige. Man macht eine Pause und kann nicht weiter konsumieren“, sagte sie. „Niemand ist süchtig nach Tolstoi.“ Sie schien meine Skepsis zu verstehen. „Die Frage ist nicht, wie wir Abhängigkeit verhindern können, was meiner Meinung nach eine lösbare, aber nicht besonders interessante Frage ist“, fuhr sie fort, „sondern vielmehr darum, wie wir jeden Satz bilden.“ Schlag? Wie, Wirklich Schlag?” Ich nickte, während sie einen Zug nahm.

Als Guler und ich uns trennten, dachte ich an die Leute, die ich gesehen hatte, wie sie vor einer großen Metallbox in der Größe eines Verkaufsautomaten aufgereiht waren, den Co-Star zur Vermarktung seiner neuen Funktion genutzt hatte. Die Maschine wurde im Sommer in einem Zeitschriftenladen in Manhattan installiert und ist seitdem in Los Angeles stationiert. Dort läuft die gleiche Software wie „Ask the Stars“, jedoch mit vorprogrammierten Fragen. An dem Mittwochabend, als ich vorbeikam, um es mir anzusehen, standen zehn Leute in einer Reihe – genau das Richtige für die hintere Ecke einer Bodega. Nachdem ich den Automaten abgefragt hatte, ging ich zurück zum Ende der Warteschlange, in der Hoffnung, die Menschenmenge abzuwarten und alles für mich allein zu haben.

Ich fragte den Mann hinter mir, ob er zuerst gehen wollte. Er erklärte, dass er gerade gegangen sei, aber die falsche Frage gestellt habe und es noch einmal versuchen wollte; Er war neugierig, ob er einen neuen Job in derselben Branche bekommen würde oder ob er eine völlig neue Karriere versuchen sollte. Ich bemerkte das sanfte Ringen seiner Hände und beschloss, ihm Platz zu lassen. Als ich den Laden verließ, blickte ich zu ihm zurück, einer einsamen Gestalt, die Fragen ins Leere steckte.


In diesem Artikel wurde Kathleen Creels akademische Spezialität zuvor falsch dargestellt.

source site

Leave a Reply