Das moralische Gewicht des KI-Bewusstseins

Seth, der eine bewusste KI für relativ unwahrscheinlich hält, zumindest auf absehbare Zeit, macht sich dennoch Sorgen darüber, welche emotionale Bedeutung die Möglichkeit eines KI-Bewusstseins für den Menschen haben könnte. „Es wird die Art und Weise verändern, wie wir unsere begrenzten Ressourcen für die Sorge um Dinge verteilen“, sagt er. Das scheint ein Problem für die Zukunft zu sein. Aber die Wahrnehmung des KI-Bewusstseins ist jetzt bei uns: Blake Lemoine ging ein persönliches Risiko für eine KI ein, von der er glaubte, dass sie bei Bewusstsein sei, und verlor seinen Job. Wie viele andere würden Zeit, Geld und persönliche Beziehungen für leblose Computersysteme opfern?

Das Wissen, dass die beiden Linien in der Müller-Lyer-Illusion genau gleich lang sind, hindert uns nicht daran, eine kürzer als die andere wahrzunehmen. Ebenso ändert das Wissen, dass GPT nicht bewusst ist, nichts an der Illusion, dass Sie mit einem Wesen mit einer Perspektive, Meinungen und Persönlichkeit sprechen.

Sogar einfache Chatbots können eine unheimliche Anziehungskraft ausüben: Ein einfaches Programm namens ELIZA, das in den 1960er Jahren zur Simulation von Gesprächstherapie entwickelt wurde, überzeugte viele Benutzer davon, dass es in der Lage sei, zu fühlen und zu verstehen. Die Wahrnehmung des Bewusstseins und die Realität des Bewusstseins stimmen kaum überein, und diese Diskrepanz wird sich nur verschlimmern, wenn KI-Systeme in der Lage werden, realistischere Gespräche zu führen. „Wir werden nicht umhin können, sie als bewusste Erfahrungen wahrzunehmen, genauso wie bestimmte visuelle Illusionen für uns kognitiv undurchdringlich sind“, sagt Seth. Genauso wie das Wissen, dass die beiden Zeilen in der Müller-Lyer-Illusion genau gleich lang sind, uns nicht daran hindert, eine kürzer als die andere wahrzunehmen, ändert das Wissen, dass GPT nicht bewusst ist, nichts an der Illusion, dass Sie mit a sprechen mit einer Perspektive, Meinungen und Persönlichkeit sein.

Im Jahr 2015, Jahre bevor diese Bedenken aktuell wurden, formulierten die Philosophen Eric Schwitzgebel und Mara Garza eine Reihe von Empfehlungen zum Schutz vor solchen Risiken. Eine ihrer Empfehlungen, die sie „Emotional Alignment Design Policy“ nannten, argumentierte, dass jede unbewusste KI absichtlich so gestaltet werden sollte, dass Benutzer nicht glauben, sie sei bewusst. Unternehmen haben einige kleine Schritte in diese Richtung unternommen – ChatGPT spuckt ein hartcodiertes Dementi aus, wenn man es fragt, ob es bewusst ist. Aber solche Reaktionen tragen wenig dazu bei, die allgemeine Illusion zu zerstören.

Schwitzgebel, Professor für Philosophie an der University of California, Riverside, möchte jede Unklarheit vermeiden. In ihrem Papier von 2015 schlugen er und Garza auch ihre „Politik der ausgeschlossenen Mitte“ vor – wenn unklar ist, ob ein KI-System bewusst sein wird, sollte dieses System nicht aufgebaut werden. In der Praxis bedeutet dies, dass sich alle relevanten Experten darin einig sein müssen, dass eine zukünftige KI sehr wahrscheinlich nicht bei Bewusstsein ist (ihr Urteil für aktuelle LLMs) oder sehr wahrscheinlich bei Bewusstsein ist. „Wir wollen die Leute nicht verwirren“, sagt Schwitzgebel.

Das Vermeiden der Grauzone des umstrittenen Bewusstseins umgeht sowohl die Risiken, die mit der Schädigung einer bewussten KI einhergehen, als auch die Nachteile, die sich daraus ergeben, dass eine leblose Maschine als bewusst behandelt wird. Das Problem ist, dass dies möglicherweise nicht realistisch ist. Viele Forscher – wie Rufin VanRullen, Forschungsdirektor am französischen Centre Nationale de la Recherche Scientifique, der kürzlich Fördermittel für den Aufbau einer KI mit einem globalen Arbeitsbereich erhalten hat – arbeiten jetzt aktiv daran, KI mit den potenziellen Grundlagen des Bewusstseins auszustatten.

""

STUART BRADFORD

Der Nachteil eines Moratoriums für den Aufbau potenziell bewusster Systeme besteht laut VanRullen darin, dass Systeme wie das, das er zu schaffen versucht, möglicherweise effektiver sind als aktuelle KI. „Wenn wir von der aktuellen KI-Leistung enttäuscht sind, liegt das immer daran, dass sie hinter dem zurückbleibt, wozu das Gehirn in der Lage ist“, sagt er. „Es ist also nicht unbedingt mein Ziel, eine bewusste KI zu schaffen – es ist eher so, dass das Ziel vieler Menschen in der KI derzeit darin besteht, diese fortgeschrittenen Denkfähigkeiten zu erreichen.“ Solche fortschrittlichen Fähigkeiten könnten echte Vorteile bringen: KI-entwickelte Medikamente werden bereits in klinischen Studien getestet. Es ist nicht unvorstellbar, dass KI in der Grauzone Leben retten könnte.

VanRullen ist sensibel für die Risiken bewusster KI – er arbeitete mit Long und Mudrik an dem Whitepaper über die Erkennung von Bewusstsein in Maschinen. Aber es sind genau diese Risiken, sagt er, die seine Forschung wichtig machen. Die Chancen stehen gut, dass bewusste KI nicht zuerst aus einem sichtbaren, öffentlich finanzierten Projekt wie seinem eigenen hervorgehen wird; Es könnte sehr wohl die tiefen Taschen eines Unternehmens wie Google oder OpenAI beanspruchen. Diese Unternehmen, sagt VanRullen, werden die ethischen Probleme, die ein bewusstes System mit sich bringen würde, wahrscheinlich nicht begrüßen. „Bedeutet das, dass sie, wenn es im Labor passiert, einfach so tun, als wäre es nicht passiert? Bedeutet das, dass wir nichts davon erfahren?“ er sagt. „Ich finde das ziemlich besorgniserregend.“

Wissenschaftler wie er können dazu beitragen, dieses Risiko zu mindern, indem sie ein besseres Verständnis dafür erlangen, wie das Bewusstsein selbst funktioniert, sowohl bei Menschen als auch bei Maschinen. Dieses Wissen könnte es den Regulierungsbehörden dann ermöglichen, die Unternehmen, die sich am ehesten mit der Schaffung künstlicher Köpfe befassen, effektiver zu überwachen. Je besser wir das Bewusstsein verstehen, desto kleiner wird diese prekäre Grauzone – und desto größer ist die Chance, dass wir wissen, ob wir uns darin befinden oder nicht.

Schwitzgebel seinerseits möchte lieber, dass wir die Grauzone ganz meiden. Angesichts des Ausmaßes der damit verbundenen Unsicherheiten räumt er jedoch ein, dass diese Hoffnung wahrscheinlich unrealistisch ist – insbesondere, wenn bewusste KI am Ende profitabel ist. Und sobald wir uns in der Grauzone befinden – sobald wir die Interessen von zweifelhaft bewussten Wesen ernst nehmen müssen –, werden wir uns auf noch schwierigerem Terrain zurechtfinden und uns mit moralischen Problemen von beispielloser Komplexität auseinandersetzen, ohne einen klaren Fahrplan für deren Lösung . Es liegt an den Forschern, von Philosophen über Neurowissenschaftler bis hin zu Informatikern, sich der gewaltigen Aufgabe zu stellen, diese Karte zu zeichnen.

Grace Huckins ist eine in San Francisco lebende Wissenschaftsjournalistin.

source site

Leave a Reply