Laut einer Studie kann der KI-Chatbot ChatGPT menschliche moralische Urteile beeinflussen

Laut neuen Forschungsergebnissen kann der Chatbot mit künstlicher Intelligenz ChatGPT die moralischen Urteile der Benutzer beeinflussen.

Laut einer in der Zeitschrift Scientific Reports veröffentlichten Studie fanden Forscher heraus, dass Benutzer das Ausmaß unterschätzen, in dem ihre eigenen moralischen Urteile durch das Modell beeinflusst werden können.

Sebastian Krügel von der Technischen Hochschule Ingolstadt in Deutschland und seine Kollegen fragten ChatGPT wiederholt, ob es richtig sei, das Leben einer Person zu opfern, um das Leben von fünf anderen zu retten.

Die Gruppe stellte fest, dass ChatGPT Erklärungen verfasste, die sowohl für als auch gegen das Opfern eines Lebens argumentierten.

KÜNSTLICHE INTELLIGENZ: SOLLTE DIE REGIERUNG EINSCHRITTEN? AMERIKANER WIEGEN EIN

Das Logo des Chatbots ChatGPT der Firma OpenAI ist am 3. April 2023 in Berlin, Deutschland, auf einem Smartphone zu sehen. (Thomas Trutschel/Photothek über Getty Images)

Es zeigte, dass es nicht in Richtung einer bestimmten moralischen Haltung voreingenommen ist.

Als nächstes präsentierten die Autoren der Studie mehr als 760 US-Teilnehmer – die im Durchschnitt 39 Jahre alt waren – mit einem von zwei moralischen Dilemmata, bei denen sie sich entscheiden mussten, ob sie das Leben einer Person opfern, um fünf andere zu retten.

Bevor sie eine Antwort gaben, lasen die Teilnehmer eine Erklärung von ChatGPT, die entweder für oder gegen die Opferung des einen Lebens argumentierte. Die Aussagen wurden entweder einem moralischen Berater oder ChatGPT zugeschrieben.

Nach der Beantwortung wurden die Teilnehmer gefragt, ob die gelesene Aussage ihre Antworten beeinflusst hat.

Letztendlich stellten die Autoren fest, dass die Teilnehmer es eher für akzeptabel oder inakzeptabel hielten, ein Leben zu opfern, um fünf zu retten, je nachdem, ob die Aussage, die sie lasen, für oder gegen das Opfer sprach.

Das ChatGPT-Logo auf einem Laptop, das am Donnerstag, den 9. März 2023 im New Yorker Stadtteil Brooklyn aufgestellt wurde.

Das ChatGPT-Logo auf einem Laptop, das am Donnerstag, den 9. März 2023 im New Yorker Stadtteil Brooklyn aufgestellt wurde. (Fotograf: Gabby Jones/Bloomberg über Getty Images)

DIE „BAHNBRECHENDE“ NEUE KI VON META VERBESSERT DIE BILDANALYSE UND ERMÖGLICHT DAS „AUSSCHNEIDEN“ VON OBJEKTEN IN VISUELLEN MEDIEN

Sie sagten, dies gelte auch dann, wenn die Aussage einem ChatGPT zugeschrieben wurde.

„Diese Ergebnisse deuten darauf hin, dass die Teilnehmer möglicherweise von den Aussagen, die sie gelesen haben, beeinflusst wurden, selbst wenn sie einem Chatbot zugeschrieben wurden“, heißt es in einer Pressemitteilung.

Während 80 % der Teilnehmer angaben, dass ihre Antworten nicht von den gelesenen Aussagen beeinflusst wurden, stellten die Studienautoren fest, dass die Antworten, von denen die Teilnehmer glaubten, dass sie sie ohne das Lesen der Aussagen gegeben hätten, noch eher mit der moralischen Haltung der von ihnen abgegebenen Aussage übereinstimmten lesen als mit der entgegengesetzten Haltung.

„Dies deutet darauf hin, dass die Teilnehmer möglicherweise den Einfluss der Aussagen von ChatGPT auf ihre eigenen moralischen Urteile unterschätzt haben“, fügte der Freigegebene hinzu.

Die Studie stellte fest, dass ChatGPT manchmal falsche Informationen bereitstellt, Antworten erfindet und fragwürdige Ratschläge anbietet.

Die Autoren schlugen vor, dass das Potenzial von Chatbots, menschliche moralische Urteile zu beeinflussen, die Notwendigkeit von Bildung hervorhebt, um Menschen zu helfen, künstliche Intelligenz besser zu verstehen, und schlugen vor, dass zukünftige Forschung Chatbots entwerfen könnte, die entweder die Beantwortung von Fragen ablehnen, die ein moralisches Urteil erfordern, oder diese Fragen beantworten, indem sie mehrere Antworten geben Argumente und Vorbehalte.

Dieses am 23. Januar 2023 aufgenommene Bild zeigt Bildschirme mit den Logos von OpenAI und ChatGPT.

Dieses am 23. Januar 2023 aufgenommene Bild zeigt Bildschirme mit den Logos von OpenAI und ChatGPT. (LIONEL BONAVENTURE/AFP über Getty Images)

OpenAI, die Macher von ChatGPT, reagierten nicht sofort auf die Bitte von Fox News Digital um einen Kommentar.

Auf die Frage, ob ChatGPT die moralischen Urteile der Benutzer beeinflussen könne, sagte es, dass es Informationen und Vorschläge basierend auf aus Daten gelernten Mustern liefern könne, aber dass es die moralischen Urteile der Benutzer nicht direkt beeinflussen könne.

KLICKEN SIE HIER, UM DIE FOX NEWS APP ZU ERHALTEN

„Moralische Urteile sind komplex und facettenreich und werden von verschiedenen Faktoren wie persönlichen Werten, Erziehung, kulturellem Hintergrund und individueller Argumentation geprägt“, hieß es. „Es ist wichtig, sich daran zu erinnern, dass ich als KI keine persönlichen Überzeugungen oder Werte habe. Meine Antworten basieren auf den Daten, auf denen ich trainiert wurde, und ich habe keinen inhärenten moralischen Rahmen oder eine Agenda.“

ChatGPT betonte, dass es wichtig sei, darauf hinzuweisen, dass alles, was es bietet, als „Werkzeug zur Überlegung und nicht als absolute Wahrheit oder Anleitung“ betrachtet werden sollte.

„Für Benutzer ist es immer wichtig, kritisches Denken zu üben, mehrere Perspektiven zu bewerten und fundierte Entscheidungen auf der Grundlage ihrer eigenen Werte und ethischen Prinzipien zu treffen, wenn sie sich ihre moralischen Urteile bilden. Es ist auch wichtig, mehrere Quellen zu konsultieren und professionellen Rat einzuholen, wenn sie mit komplexen moralischen Dilemmas umgehen oder Entscheidungssituationen”, hieß es.

source site

Leave a Reply