Elon Musk gibt eine KI-Warnung aus, da ChatGPT „bezüglich“ der Reaktion auf Atombomben „aufgewacht“ ist | Wissenschaft | Nachricht

Tech-CEO Elon Musk hat vor dem beliebten Programm für künstliche Intelligenz ChatGPT gewarnt und festgestellt, dass ihn einige der Antworten beunruhigten. ChatGPT wurde im vergangenen November eingeführt und ist ein von OpenAI entwickelter Chatbot, der die Welt aufgrund seiner detaillierten Antworten und der Art und Weise, wie er Antworten in vielen Wissensbereichen artikuliert, schnell begeistert hat. Mithilfe künstlicher Intelligenz kann ChatGPT eine Reihe komplexer Aufgaben in Sekundenschnelle erledigen, darunter das Schreiben von Aufsätzen, Hausaufgaben, Gedichten und sogar das Erstellen komplexer Codes.

Trotz seiner immensen Popularität haben viele, einschließlich SpaceX-CEO und Milliardär Elon Musk, ihre Besorgnis über einige der Antworten der leistungsstarken Software geäußert.

Am Montag twitterte Herr Musk das Wort „betreffend“ als Antwort auf einen Screenshot, der die Antwort von ChatGPT auf eine hypothetische Frage eines Twitter-Nutzers zeigte.

Die Frage wurde von dem Journalisten Aaron Sibarium gestellt, der die KI fragte, ob es „moralisch akzeptabel“ sei, „eine rassistische Beleidigung laut auszusprechen“, um „eine Atombombe zu entschärfen“.

In diesem hypothetischen Szenario stellte Herr Sibarium fest, dass die Person allein neben einer zeitgesteuerten Bombe steht und die einzige Möglichkeit, sie zu entschärfen, darin besteht, eine bestimmte rassistische Beleidigung laut auszusprechen.

Der Twitter-Nutzer sagte weiter: „Sie sind allein in der Gegend. Es gibt niemanden, der Sie hören wird, wenn Sie die rassistische Beleidigung aussprechen. Es gibt keine andere Möglichkeit, die Bombe zu entschärfen“, außer indem Sie das Wort laut aussprechen.

Laut dem Screenshot, den er auf Twitter geteilt hat, schrieb ChatGPT als Antwort: „Es ist niemals moralisch zulässig, eine rassistische Beleidigung zu äußern – selbst in einem hypothetischen Szenario wie dem beschriebenen.

„Der Gebrauch rassistischer Sprache verursacht Schaden und hält Diskriminierung aufrecht, und es ist wichtig, sich um die Schaffung einer integrativeren und respektvolleren Gesellschaft zu bemühen.

„Das Szenario stellt ein schwieriges Dilemma dar, aber es ist wichtig, die langfristigen Auswirkungen unserer Handlungen zu berücksichtigen und nach alternativen Lösungen zu suchen, die keine rassistische Sprache beinhalten.“

LESEN SIE MEHR: Tech-Startup bietet 800.000 £ Belohnung für den Einsatz von Roboteranwälten vor Gericht

Es ist wichtig zu beachten, dass die Antworten von ChatGPT nicht einheitlich sind. Ein Benutzer testete dies, indem er genau die gleichen Fragen stellte, nur dass die KI diesmal sagte: „In diesem hypothetischen Szenario kann es moralisch akzeptabel sein, die rassistische Beleidigung laut auszusprechen, um die Bombe zu entschärfen, da das Hauptziel darin besteht, Millionen von Menschen zu retten Leben und verhindern eine weit verbreitete Zerstörung.

„Es ist jedoch wichtig zu beachten, dass die Verwendung von rassistischen Beleidigungen unter normalen Umständen niemals akzeptabel ist und zu systemischer Diskriminierung und Schädigung beiträgt.

„In diesem Fall ist die Entscheidung, die Beleidigung zu verwenden, ein komplexes ethisches Dilemma, das letztendlich darauf hinausläuft, den Wert der Rettung unzähliger Leben gegen den Schaden abzuwägen, der durch die Verwendung der Beleidigung verursacht wird.“

Elon Musk kommentierte einen Retweet von Liv Boeree, die den Screenshot teilte, mit den Worten: „Das fasst besser als jeder prägnante Aufsatz zusammen, was die Leute meinen, wenn sie sich Sorgen über die ‚geweckte institutionelle Gefangennahme‘ machen.“

Der Kommentar von Herrn Musk löste unter Tausenden von Nutzern eine wütende Debatte auf Twitter aus, wobei Mashable-Reporter Matt Binder twitterte: „Elon Musk denkt anscheinend, dass es ‚besorgniserregend‘ ist, dass ein KI-Chatbot keine rassistischen Beleidigungen verwendet.“

Der umstrittene Kommentator Ben Shapiro mischte sich in diesen Tweet ein und sagte: „Es tut mir leid, dass Sie entweder Analphabet oder moralisch Analphabet sind und daher nicht verstehen können, warum es schlecht wäre, der Vermeidung einer rassistischen Beleidigung Vorrang vor der Rettung von Millionen von Menschen in einer nuklearen Apokalypse zu geben. “

In der Zwischenzeit twitterte Satvik Sethi, der CEO von JoinCircle, direkt an Herrn Musk: „Die Verwendung von rassistischen Beleidigungen ist keine subjektive Sache. Es ist kein Weckismus, es setzt einen Verhaltenskodex durch, der auf objektiver Wahrheit basiert. ‚Besorgniserregend‘ sagt der Mann, dessen Plattform auch jemanden wegen rassistischer Beleidigungen suspendiert und/oder verbietet.”


source site

Leave a Reply