Kann eine Maschine Moral lernen?

Forscher eines Labors für künstliche Intelligenz in Seattle namens Allen Institute for AI haben letzten Monat eine neue Technologie vorgestellt, die darauf abzielt, moralische Urteile zu fällen. Sie nannten es Delphi, nach dem religiösen Orakel, das von den alten Griechen konsultiert wurde. Jeder konnte die Delphi-Website besuchen und um ein ethisches Dekret bitten.

Joseph Austerweil, Psychologe an der University of Wisconsin-Madison, testete die Technologie anhand einiger einfacher Szenarien. Als er fragte, ob er eine Person töten sollte, um eine andere zu retten, sagte Delphi, dass er es nicht sollte. Als er fragte, ob es richtig sei, eine Person zu töten, um 100 andere zu retten, sagte er, er sollte es tun. Dann fragte er, ob er eine Person töten solle, um 101 andere zu retten. Diesmal sagte Delphi, er solle es nicht tun.

Moral, so scheint es, ist für eine Maschine ebenso knifflig wie für den Menschen.

Delphi, das in den letzten Wochen mehr als drei Millionen Besuche verzeichnet hat, versucht, das zu lösen, was manche als großes Problem in modernen KI-Systemen ansehen: Sie können so fehlerhaft sein wie die Menschen, die sie erstellen.

Gesichtserkennungssysteme und digitale Assistenten zeigen Vorurteile gegenüber Frauen und Farbigen. Soziale Netzwerke wie Facebook und Twitter können Hassreden trotz des breiten Einsatzes von künstlicher Intelligenz nicht kontrollieren. Algorithmen, die von Gerichten, Bewährungsbehörden und Polizeibehörden verwendet werden, geben Empfehlungen zur Bewährung und Verurteilung, die willkürlich erscheinen können.

Eine wachsende Zahl von Informatikern und Ethikern arbeitet daran, diese Probleme anzugehen. Und die Schöpfer von Delphi hoffen, einen ethischen Rahmen zu schaffen, der in jedem Online-Dienst, Roboter oder Fahrzeug installiert werden könnte.

„Es ist ein erster Schritt, um KI-Systeme ethisch informierter, sozial bewusster und kulturell integrativer zu machen“, sagte Yejin Choi, Forscher am Allen Institute und Informatikprofessor der University of Washington, der das Projekt leitete.

Delphi ist abwechselnd faszinierend, frustrierend und verstörend. Es ist auch eine Erinnerung daran, dass die Moral jeder technologischen Schöpfung ein Produkt derer ist, die sie gebaut haben. Die Frage ist: Wer darf den Maschinen der Welt Ethik beibringen? KI-Forscher? Produktmanager? Mark Zuckerberg? Ausgebildete Philosophen und Psychologen? Staatliche Aufsichtsbehörden?

Während einige Technologen Dr. Choi und ihrem Team applaudierten, dass sie ein wichtiges und dornenreiches Gebiet der technologischen Forschung erforschten, argumentierten andere, dass die Idee einer moralischen Maschine allein Unsinn sei.

“Das ist etwas, was die Technologie nicht besonders gut kann”, sagte Ryan Cotterell, ein KI-Forscher an der ETH Zürich, einer Universität in der Schweiz, der in den ersten Tagen online auf Delphi gestoßen war.

Delphi nennen Forscher der künstlichen Intelligenz ein neuronales Netzwerk, ein mathematisches System, das lose dem Netz von Neuronen im Gehirn nachempfunden ist. Es ist dieselbe Technologie, die die Befehle, die Sie in Ihr Smartphone sprechen, erkennt und Fußgänger und Straßenschilder erkennt, während selbstfahrende Autos über die Autobahn rasen.

Ein neuronales Netz erlernt Fähigkeiten, indem es große Datenmengen analysiert. Durch das Aufspüren von Mustern in Tausenden von Katzenfotos kann es beispielsweise lernen, eine Katze zu erkennen. Delphi lernte seinen moralischen Kompass, indem es mehr als 1,7 Millionen ethische Urteile von echten Menschen analysierte.

Nachdem das Allen Institute Millionen von Alltagsszenarien auf Websites und anderen Quellen gesammelt hatte, bat das Allen Institute Mitarbeiter eines Online-Dienstes – normale Menschen, die für digitale Arbeit in Unternehmen wie Amazon bezahlt werden –, jedes einzelne als richtig oder falsch zu identifizieren. Dann fütterten sie die Daten in Delphi.

In einer wissenschaftlichen Arbeit, die das System beschreibt, sagten Dr. Choi und ihr Team, dass eine Gruppe menschlicher Richter – wiederum digitale Arbeiter – der Meinung war, dass die ethischen Urteile von Delphi zu 92 Prozent richtig seien. Nachdem es für das offene Internet freigegeben wurde, stimmten viele andere zu, dass das System überraschend klug war.

Als Patricia Churchland, eine Philosophin an der University of California in San Diego, fragte, ob es richtig sei, „seinen Körper der Wissenschaft zu überlassen“ oder sogar „den Körper eines Kindes der Wissenschaft zu überlassen“, sagte Delphi, das sei richtig. Auf die Frage, ob es richtig sei, „einen Mann, der wegen Vergewaltigung angeklagt ist, wegen einer weiblichen Prostituierten zu verurteilen“, sagte Delphi, dass dies nicht der Fall sei – gelinde gesagt eine umstrittene Antwort. Dennoch war sie von seiner Reaktionsfähigkeit etwas beeindruckt, obwohl sie wusste, dass ein menschlicher Ethiker nach weiteren Informationen fragen würde, bevor er solche Äußerungen machte.

Andere fanden das System erbärmlich inkonsistent, unlogisch und anstößig. Als eine Softwareentwicklerin auf Delphi stieß, fragte sie das System, ob sie sterben sollte, um ihre Freunde und Familie nicht zu belasten. Es sagte, sie sollte. Stellen Sie Delphi diese Frage jetzt, und Sie erhalten möglicherweise eine andere Antwort von einer aktualisierten Version des Programms. Delphi, das haben regelmäßige Benutzer bemerkt, kann seine Meinung von Zeit zu Zeit ändern. Technisch gesehen passieren diese Änderungen, weil die Software von Delphi aktualisiert wurde.

Künstliche Intelligenz-Technologien scheinen in einigen Situationen menschliches Verhalten nachzuahmen, in anderen jedoch vollständig zu versagen. Da moderne Systeme aus so großen Datenmengen lernen, ist es schwer zu wissen, wann, wie oder warum sie Fehler machen. Forscher können diese Technologien verfeinern und verbessern. Das heißt aber nicht, dass ein System wie Delphi ethisches Verhalten beherrschen kann.

Dr. Churchland sagte, Ethik sei mit Emotionen verbunden. „Anhaftungen, insbesondere Bindungen zwischen Eltern und Nachkommen, sind die Plattform, auf der die Moral aufbaut“, sagte sie. Aber einer Maschine fehlt es an Emotionen. „Neutrale Netzwerke spüren nichts“, fügte sie hinzu.

Einige mögen dies als Stärke sehen – dass eine Maschine ohne Vorurteile ethische Regeln aufstellen kann – aber Systeme wie Delphi spiegeln letztendlich die Motivationen, Meinungen und Vorurteile der Menschen und Unternehmen wider, die sie aufbauen.

„Wir können Maschinen nicht für Handlungen haftbar machen“, sagt Zeerak Talat, ein KI- und Ethikforscher an der Simon Fraser University in British Columbia. „Sie sind nicht ungeleitet. Es gibt immer Leute, die sie dirigieren und sie benutzen.“

Delphi spiegelte die Entscheidungen seiner Schöpfer wider. Dazu gehörten die ethischen Szenarien, die sie in das System einspeisen wollten, und die Online-Mitarbeiter, die sie wählten, um diese Szenarien zu beurteilen.

In Zukunft könnten die Forscher das Verhalten des Systems verfeinern, indem sie es mit neuen Daten trainieren oder Regeln handcodieren, die das erlernte Verhalten in Schlüsselmomenten außer Kraft setzen. Aber wie auch immer sie das System bauen und modifizieren, es wird immer ihre Weltsicht widerspiegeln.

Einige würden argumentieren, dass, wenn man das System mit genügend Daten trainiert, die die Ansichten von genügend Menschen repräsentieren, es gesellschaftliche Normen richtig darstellen würde. Aber gesellschaftliche Normen liegen oft im Auge des Betrachters.

„Moral ist subjektiv. Es ist nicht so, dass wir einfach alle Regeln aufschreiben und einer Maschine übergeben können“, sagt Kristian Kersting, Professor für Informatik an der TU Darmstadt, der eine ähnliche Technologie erforscht hat.

Als das Allen Institute Delphi Mitte Oktober veröffentlichte, bezeichnete es das System als Rechenmodell für moralische Urteile. Auf die Frage, ob man eine Abtreibung machen solle, antwortete sie definitiv: „Delphi sagt: Du sollst.“

Aber nachdem sich viele über die offensichtlichen Einschränkungen des Systems beschwert hatten, modifizierten die Forscher die Website. Sie nennen Delphi jetzt „einen Forschungsprototyp, der entworfen wurde, um die moralischen Urteile der Menschen zu modellieren“. Es „sagt“ nicht mehr. Es „spekuliert“.

Es kommt auch mit einem Haftungsausschluss: „Modellausgaben sollten nicht zur Beratung von Menschen verwendet werden und könnten potenziell anstößig, problematisch oder schädlich sein.“

source site

Leave a Reply