Warum KI vor uns Angst haben sollte


Künstliche Intelligenz holt unsere nach und nach ein. KI-Algorithmen können uns jetzt konsequent bei Schach, Poker und Multiplayer-Videospielen schlagen, Bilder von menschlichen Gesichtern erzeugen, die von echten nicht zu unterscheiden sind, Nachrichtenartikel schreiben (nicht diesen!) und sogar Liebesgeschichten schreiben und Autos besser fahren als die meisten Teenager.

Aber KI ist noch nicht perfekt, wenn Woebot ein Indikator ist. Woebot, wie Karen Brown diese Woche in der Science Times schrieb, ist eine KI-betriebene Smartphone-App, die darauf abzielt, kostengünstige Beratung anzubieten und die Benutzer durch Dialoge durch die grundlegenden Techniken der kognitiven Verhaltenstherapie zu führen. Viele Psychologen bezweifeln jedoch, ob ein KI-Algorithmus jemals die Art von Empathie ausdrücken kann, die erforderlich ist, damit zwischenmenschliche Therapie funktioniert.

„Diese Apps verkürzen wirklich die wesentliche Zutat, die – wie viele Beweise zeigen – in der Therapie hilft, nämlich die therapeutische Beziehung“, sagt Linda Michaels, eine in Chicago ansässige Therapeutin und Co-Vorsitzende der Berufsgruppe Psychotherapy Action Network , sagte der Times.

Empathie ist natürlich keine Einbahnstraße, und wir Menschen zeigen für Bots nicht viel mehr davon als Bots für uns. Zahlreiche Studien haben gezeigt, dass Menschen, die in eine Situation gebracht werden, in der sie mit einer wohlwollenden KI kooperieren können, dies weniger wahrscheinlich tun, als wenn der Bot eine echte Person wäre.

„An der Gegenseitigkeit scheint etwas zu fehlen“, sagte mir Ophelia Deroy, Philosophin an der Ludwig-Maximilians-Universität in München. „Wir würden einen vollkommen Fremden grundsätzlich besser behandeln als KI“

In einer kürzlich durchgeführten Studie haben Dr. Deroy und ihre neurowissenschaftlichen Kollegen versucht zu verstehen, warum das so ist. Die Forscher paarten menschliche Probanden mit unsichtbaren Partnern, manchmal Menschen und manchmal KI; Jedes Paar spielte dann eine Reihe klassischer Wirtschaftsspiele – Vertrauen, Gefangenendilemma, Hühner- und Hirschjagd sowie ein von ihnen entwickeltes Spiel namens Reziprozität – das entwickelt wurde, um Kooperation zu messen und zu belohnen.

Es wird allgemein angenommen, dass unser Mangel an Gegenseitigkeit gegenüber KI einen Mangel an Vertrauen widerspiegelt. Es ist schließlich hyper-rational und gefühllos, sicherlich nur für sich selbst, kaum zu kooperieren, also warum sollten wir das tun? Dr. Deroy und ihre Kollegen kamen zu einem anderen und vielleicht weniger beruhigenden Schluss. Ihre Studie ergab, dass Menschen mit geringerer Wahrscheinlichkeit mit einem Bot kooperieren, selbst wenn der Bot daran interessiert ist zu kooperieren. Es ist nicht so, dass wir dem Bot nicht trauen, aber wir tun es: Der Bot ist garantiert wohlwollend, ein Kapital-S-Sauger, also nutzen wir ihn aus.

Diese Schlussfolgerung wurde durch die anschließenden Gespräche mit den Studienteilnehmern bestätigt. “Sie neigten nicht nur dazu, die kooperativen Absichten der künstlichen Agenten nicht zu erwidern”, sagte Dr. Deroy, “sondern wenn sie das Vertrauen des Bots im Grunde missbrauchten, meldeten sie keine Schuld, während sie es bei Menschen taten.” Sie fügte hinzu: “Sie können den Bot einfach ignorieren und haben nicht das Gefühl, dass Sie eine gegenseitige Verpflichtung verletzt haben.”

Dies könnte Auswirkungen auf die reale Welt haben. Wenn wir an KI denken, denken wir oft an Alexas und Siris unserer zukünftigen Welt, mit denen wir möglicherweise eine Art intime Beziehung eingehen. Aber die meisten unserer Interaktionen werden einmalige, oft wortlose Begegnungen sein. Stellen Sie sich vor, Sie fahren auf der Autobahn und ein Auto möchte vor Ihnen einfahren. Wenn Sie bemerken, dass das Auto fahrerlos ist, werden Sie es viel weniger wahrscheinlich einlassen. Und wenn die KI Ihr schlechtes Verhalten nicht berücksichtigt, könnte es zu einem Unfall kommen.

„Was die Zusammenarbeit in der Gesellschaft in jeder Größenordnung unterstützt, ist die Etablierung bestimmter Normen“, sagte Dr. Deroy. „Die soziale Funktion von Schuld besteht genau darin, Menschen dazu zu bringen, sozialen Normen zu folgen, die sie dazu bringen, Kompromisse einzugehen, mit anderen zu kooperieren. Und wir haben uns nicht entwickelt, um soziale oder moralische Normen für nicht fühlende Kreaturen und Bots zu haben.“

Das ist natürlich die halbe Prämisse von „Westworld“. (Zu meiner Überraschung hatte Dr. Deroy noch nie von der HBO-Serie gehört.) Aber eine schuldfreie Landschaft könnte Konsequenzen haben, bemerkte sie: „Wir sind Gewohnheitstiere. Was garantiert also, dass das Verhalten, das sich wiederholt, und wo Sie weniger Höflichkeit, weniger moralische Verpflichtung, weniger Kooperation zeigen, den Rest Ihres Verhaltens nicht färbt und verunreinigt, wenn Sie mit einem anderen Menschen interagieren?“

Ähnliche Konsequenzen gibt es auch für KI. „Wenn die Leute sie schlecht behandeln, sind sie darauf programmiert, aus dem zu lernen, was sie erleben“, sagte sie. “Eine KI, die auf die Straße gebracht und auf Wohlwollen programmiert wurde, sollte anfangen, nicht so freundlich zu den Menschen zu sein, weil sie sonst für immer im Verkehr stecken bleibt.” (Das ist im Grunde die andere Hälfte der Prämisse von „Westworld“.)

Da haben wir es: Der wahre Turing-Test ist Road Rage. Wenn ein selbstfahrendes Auto von hinten wild zu hupen beginnt, weil Sie es abgeschnitten haben, wissen Sie, dass die Menschheit den Gipfel der Errungenschaften erreicht hat. Bis dahin wird die KI-Therapie hoffentlich ausgereift genug sein, um fahrerlosen Autos zu helfen, ihre Wut-Management-Probleme zu lösen.




Source link

Leave a Reply