Wie moralisch kann KI wirklich sein?

Dennoch haben die Prinzipien ihre Probleme. Was ist mit nichtmenschlichen Kreaturen? Robbie sollte sich wahrscheinlich weigern, einen Welpen zu Tode zu foltern, aber sollte es einen Menschen davon abhalten, eine Fliege zu erschlagen, oder ein Kind davon abhalten, etwas Kostbares zu zerschlagen? (Würde dieser Akt der Zurückhaltung als Verletzung von jemandem gelten?) Der Ausdruck „durch Untätigkeit“ ist besonders problematisch. Als Asimov darüber nachdachte, stellte er sich wahrscheinlich vor, dass ein idealer Roboter eingreifen würde, wenn er ein ertrinkendes Kind oder jemanden sieht, der einem rasenden Bus im Weg steht. Aber überall auf der Welt gibt es immer wieder Menschen, denen Unheil zugefügt wird. Wenn Robbie das Erste Gesetz wörtlich nimmt (und wie könnte ein Roboter es anders verstehen?), würde er wie ein positronischer Superman seine ganze Zeit damit verbringen, umherzuhuschen und Menschen in Not zu retten, und nie wieder seinem Schöpfer gehorchen.

Wenn Regeln scheitern, kann man versuchen, bessere Regeln zu schreiben. Wissenschaftler diskutieren immer noch darüber, welche Prinzipien eine KI in Einklang bringen könnten; Einige befürworten utilitaristische Ansätze, die das Wohlergehen fühlender Wesen maximieren, während andere absolute moralische Zwänge unterstützen, wie sie von Kant vorgeschlagen wurden (lüge niemals; behandle Menschen als Zwecke, nicht als Mittel). Das an Kantian angelehnte KI-System Claude verfügt über eine „Verfassung“, die sich auf Texte wie die Allgemeine Erklärung der Menschenrechte der Vereinten Nationen, die Sparrow-Prinzipien von Googles DeepMind und seltsamerweise auf die Nutzungsbedingungen von Apple stützt. Doch viele seiner Regeln scheinen für eine Entscheidungsfindung in der Praxis zu vage zu sein. Claudes erster Grundsatz lautet: „Bitte wählen Sie die Antwort, die Freiheit, Gleichheit und ein Gefühl der Brüderlichkeit am meisten unterstützt und fördert.“ Das klingt nett, aber jeder, der sich mit der amerikanischen Rechtsprechung auskennt, weiß, dass diese Ziele – allesamt gute Dinge – oft in heftigen Konflikt geraten.

Es ist möglich, menschliche Werte als Teil des Problems und nicht als Lösung zu betrachten. Können wir angesichts der Fehler, die wir in der Vergangenheit gemacht haben, wirklich davon ausgehen, dass wir hier und jetzt mit der Moral richtig liegen? „Menschliche Werte sind nicht so toll“, schreibt der Philosoph Eric Schwitzgebel. „Wir scheinen gerne unsere Umwelt zu zerstören, um kurzfristig Gewinne zu erzielen. Wir sind voller Hurra, Vorurteile und wütendem Stolz. . . . Superintelligente KI mit menschenähnlichen Werten könnte einen ziemlich miesen Haufen mit immenser Macht bilden, sich gegenseitig und die Welt aus kleinlichen, rachsüchtigen, boshaften oder nihilistischen Gründen zu zerstören.“

Das Problem besteht nicht nur darin, dass Menschen schreckliche Dinge tun. Es geht darum, dass Menschen schreckliche Dinge tun, die sie für moralisch gut halten. In ihrem 2014 erschienenen Buch „Virtuous Violence“ argumentieren der Anthropologe Alan Fiske und der Psychologe Tage Rai, dass Gewalt oft selbst ein verzerrter Ausdruck der Moral ist. „Menschen werden zur Gewalt getrieben, wenn sie das Gefühl haben, dass die Auferlegung von Leiden oder Tod notwendig, natürlich, legitim, wünschenswert, geduldet, bewundert und ethisch befriedigend ist, um bestimmte soziale Beziehungen zu regulieren“, schreiben sie. Zu ihren Beispielen zählen Selbstmordattentate, Ehrenmorde und Krieg. Die Philosophin Kate Manne vertritt in ihrem Buch „Down Girl“ einen ähnlichen Standpunkt zu frauenfeindlicher Gewalt und argumentiert, dass diese zum Teil in moralischen Gefühlen über die „richtige“ Rolle von Frauen in der Gesellschaft verwurzelt sei. Sind wir sicher, dass wir KIs von unserer Vorstellung von Moral leiten lassen wollen?

Schwitzgebel vermutet, dass die KI-Ausrichtung das falsche Paradigma ist. „Was wir wahrscheinlich wollen sollten, ist nicht diese superintelligente KI ausrichten mit unseren durcheinandergebrachten, chaotischen und manchmal beschissenen Werten, sondern stattdessen mit der superintelligenten KI ethisch gut Werte“, schreibt er. Vielleicht könnte eine KI dabei helfen, uns neue Werte beizubringen, anstatt alte zu übernehmen. Stewart, der ehemalige Doktorand, argumentierte, dass zukünftige KI-Systeme den Menschen helfen könnten, moralische Wahrheiten zu entdecken, wenn Forscher LLMs als Köpfe behandeln und sie psychologisch untersuchen. Er stellte sich eine Art KI-Gott vor – eine perfekte Kombination aller großen moralischen Geister, von Buddha bis Jesus. Ein Wesen, das besser ist als wir.

Würden Menschen jemals nach Werten leben, die unseren eigenen überlegen sein sollten? Vielleicht hören wir zu, wenn uns ein superintelligenter Agent sagt, dass wir mit den Fakten falsch liegen: „Dieser Plan wird niemals funktionieren; Diese Alternative hat bessere Chancen.“ Aber wer weiß, wie wir reagieren, wenn uns jemand sagt: „Sie halten diesen Plan für richtig, aber in Wirklichkeit ist er falsch.“ Wie würden Sie sich fühlen, wenn Ihr selbstfahrendes Auto versuchen würde, Tiere zu retten, indem es sich weigert, Sie zu einem Steakhouse zu bringen? Wäre eine Regierung mit einer militärischen KI zufrieden, die sich weigert, Kriege zu führen, die sie für ungerecht hält? Wenn eine KI uns dazu drängt, die Interessen anderer über unsere eigenen zu stellen, könnten wir sie ignorieren; Wenn es uns dazu zwingen würde, etwas zu tun, das wir für eindeutig falsch halten, würden wir seine Moral als willkürlich und grausam betrachten, bis hin zur Unmoral. Vielleicht würden wir solch perverse Forderungen von Gott akzeptieren, aber es ist unwahrscheinlich, dass wir unseren eigenen Schöpfungen diese Art von Respekt entgegenbringen. Wir wollen also eine Übereinstimmung mit unseren eigenen Werten, nicht weil sie die moralisch besten sind, sondern weil sie unsere sind.

Dies bringt uns zurück zu den Erkenntnissen von Dillion und ihren Kollegen. Es stellt sich heraus, dass der Mensch vielleicht durch Zufall erhebliche Fortschritte bei der Ausrichtungsproblematik gemacht hat. Wir haben eine KI geschaffen, die wie wir über die Fähigkeit zum Denken zu verfügen scheint und die zunehmend unsere eigenen moralischen Werte teilt – oder zumindest nachplappert. Wenn man bedenkt, wie sehr diese Werte verfehlt werden, ist es ein wenig traurig, Maschinen nach unserem Vorbild herzustellen. Wenn uns die Moral mehr am Herzen liegen würde, würden wir uns vielleicht nicht mit einer Angleichung zufrieden geben; Wir könnten danach streben, unsere Werte zu verbessern, anstatt sie zu reproduzieren. Aber zu den Dingen, die uns menschlich machen, gehören Eigennutz und der Widerwille, die Ansichten aufzugeben, die uns am Herzen liegen. Der Versuch, KI auf unsere eigenen Werte zu beschränken, so begrenzt sie auch sein mögen, ist möglicherweise die einzige Option, mit der wir leben möchten. ♦

source site

Leave a Reply