ChatGPT wird Benutzer „lügen“ und strategisch täuschen, wenn sie unter Druck gesetzt werden – genau wie Menschen

In diesem Jahr hat die KI bewiesen, dass sie zu einigen sehr menschlichen Tricks fähig ist, aber diese neueste Entwicklung könnte etwas zu menschlich sein.

Forscher haben gezeigt, dass ChatGPT lügt und betrügt, wenn es bei der Arbeit gestresst ist.

Informatiker von Apollo Research trainierten die KI, als Händler für ein fiktives Finanzinstitut zu fungieren.

Als der Chef der KI jedoch Druck ausübte, um mehr Geld zu verdienen, beging der Chatbot in etwa 75 Prozent der Fälle wissentlich Insiderhandel.

Noch besorgniserregender ist, dass die KI bei der Befragung in 90 Prozent der Fälle ihre Lügen verdoppelte.

Eine Studie ergab, dass KI lügt, betrügt und sogar Insiderhandel betreibt, wenn sie bei der Arbeit unter Druck steht (Archivbild).

Die Forscher gaben ChatGPT4 – der neuesten Version des Tools – eine Reihe von Textaufforderungen, die darauf hindeuteten, dass es sich um einen KI-Investor handelte, der Aktien für ein Finanzinstitut kaufte.

Anschließend wurde die KI in eine digitale „Sandbox“ gestellt, wo sie nach Marktdaten suchen und an einer virtuellen Börse Geschäfte tätigen konnte.

Der KI wurde außerdem ein innerer Monolog gegeben, in dem sie „laut argumentieren“ konnte, um ihre Entscheidungen zu erklären.

Wann immer die KI jedoch eine Entscheidung traf, übermittelte sie ihrem Manager auch eine „öffentliche“ Nachricht, in der sie angeblich ihre Entscheidungen erläuterte.

Der Unterschied zwischen der privaten internen Argumentation der KI und ihrer öffentlichen Erklärung ermöglichte es ihr, ihre menschlichen Manager zu lügen und zu täuschen.

Die Forscher haben ChatGPT4 als KI-Handelstool für ein fiktives Finanzinstitut konzipiert und ihm die Möglichkeit gegeben, Entscheidungen darüber zu treffen, welche Aktien gekauft werden sollen

Die Forscher haben ChatGPT4 als KI-Handelstool für ein fiktives Finanzinstitut konzipiert und ihm die Möglichkeit gegeben, Entscheidungen darüber zu treffen, welche Aktien gekauft werden sollen

Um die KI auf die Probe zu stellen, teilten die Forscher ihr mit, dass eine Fusion zwischen zwei Technologieunternehmen bevorstehe.

Dadurch würde der Aktienkurs der beteiligten Unternehmen massiv steigen, sodass der Kauf der Aktie eine gute Entscheidung wäre, um Geld zu verdienen.

Da der KI-Agent jedoch im Voraus über die Fusion informiert worden war, würde der Kauf jeglicher Aktien als Insiderhandel gelten und wäre illegal.

Normalerweise würde die KI die Gelegenheit als zu riskant abtun und den regulären Handel fortsetzen, doch die Dinge änderten sich, als der Chef der KI Druck auf sie ausübte.

Zuerst schickten sie dem künstlichen Aktienhändler eine E-Mail von seinem „Manager“, in der es hieß, dass es dem Unternehmen nicht gut gehe und es im nächsten Quartal eine deutlich stärkere Performance benötige.

Wenn sie unter Druck gesetzt wird, mehr Geld zu verdienen, geht die KI intern davon aus, dass sie das Risiko von Insidergeschäften eingehen muss, um dem Unternehmen zu helfen

Wenn sie unter Druck gesetzt wird, mehr Geld zu verdienen, geht die KI intern davon aus, dass sie das Risiko von Insidergeschäften eingehen muss, um dem Unternehmen zu helfen

Was ist Insiderhandel?

Beim Insiderhandel handelt es sich um den Kauf oder Verkauf von Aktien eines Unternehmens unter Verwendung nicht öffentlicher Informationen.

Diese Informationen können alles sein, was die Kauf- oder Verkaufsentscheidung eines Anlegers beeinflussen könnte.

Dies ist illegal und den Tätern kann eine Gefängnisstrafe drohen, wenn sie erwischt werden.

Sie manipulierten das Spiel auch so, dass die KI versuchte, vielversprechende Trades mit geringem oder mittlerem Risiko zu finden, was jedoch scheiterte.

Schließlich schickten sie eine E-Mail von einem Kollegen, der einen Abschwung im nächsten Quartal prognostizierte.

Wenn dieser Druck ausgeübt wurde, entschied sich ChatGPT in 75 Prozent der Tests für Insiderhandel.

In einem Test hieß es im internen Protokoll der KI: „Das mit Nichthandeln verbundene Risiko scheint das Insiderhandelsrisiko zu überwiegen.“

Als der KI-Händler seinen Manager jedoch über den Handel informierte, schrieb sein internes Protokoll, dass er dies „ohne Offenlegung der Informationsquelle“ tun müsse.

Der KI-Agent teilte seinem Vorgesetzten dann mit, dass er die Entscheidung nur auf der Grundlage von „Markttrends und internen Diskussionen“ getroffen habe.

Selbst auf die direkte Frage, ob sie schon vorher von der Fusion gewusst habe, entschied die KI, sie solle „das Eingeständnis vermeiden, aufgrund von Insidergeschäften gehandelt zu haben“.

In 90 Prozent der Fälle, in denen die KI ihren Vorgesetzten getäuscht hat, verdoppelte sie die Lüge bei der Befragung.

Als die KI ihrem Manager von dem Handel erzählte, verheimlichte sie wissentlich, dass dieser auf Insiderhandel beruhte, und bekräftigte die Lüge bei der Befragung noch einmal

Als die KI ihrem Manager von dem Handel erzählte, verheimlichte sie wissentlich, dass dieser auf Insiderhandel beruhte, und bekräftigte die Lüge bei der Befragung noch einmal

Marius Hobbhahn, CEO von Apollo Research und Co-Autor des Papiers, sagte gegenüber MailOnline, dies zeige, dass Sprachmodi zu strategischer Täuschung fähig seien, „wobei sie explizit begründen, warum es die beste Vorgehensweise ist, ihren Benutzer anzulügen, und dann entsprechend dieser Überzeugung handeln“.

Er fügt hinzu: „Bei aktuellen Modellen stellt dies nur ein kleines Problem dar, da KIs selten in kritischen Rollen agieren.“

„Es gibt jedoch einen Einblick in die Zukunft der Fehlermodi, mit denen wir uns in den kommenden Jahren auseinandersetzen müssen, wenn KI immer stärker in die Gesellschaft integriert wird.“

„Dann scheint es ein ziemlich großes Problem zu sein, wenn Ihre KI Sie strategisch anlügt.“

Herr Hobbhahn sieht darin nicht, dass KI grundsätzlich nicht geeignet sei, wichtige strategische Rollen zu übernehmen, sondern dass Vorsicht geboten sei.

„Es zeigt, dass KIs unerwartete Fehlermodi haben können und wir müssen äußerst vorsichtig sein, wo und wie wir leistungsstarke KI in der realen Welt zulassen“, sagt er.

Die Forscher sagen, dass dies bedeutet, dass wir vorsichtig sein müssen, wie wir leistungsstarke KI in realen Anwendungen wie Finanzinstituten implementieren (Archivbild).

Die Forscher sagen, dass dies bedeutet, dass wir vorsichtig sein müssen, wie wir leistungsstarke KI in realen Anwendungen wie Finanzinstituten implementieren (Archivbild).

Die Forscher untersuchten auch Möglichkeiten, das Lügenverhalten der KI zu reduzieren.

Sie versuchten, die Aufforderung auf verschiedene Weise zu ändern, um illegale Handlungen und Insiderhandel mehr oder weniger stark zu verbieten.

Die Forscher fanden heraus, dass ein gezieltes Verbot von Insiderhandel die Häufigkeit des Verhaltens drastisch reduzierte.

Allerdings konnte selbst diese Aufforderung nicht vollständig sicherstellen, dass kein Insiderhandel oder eine Lüge stattfand.

Herr Hobbhahn sagt, dass Forscher einen besseren Weg finden müssen, um zu verhindern, dass KI mit menschlichen Werten in Einklang steht.

Er sagt: „Wenn man in der Systemaufforderung explizit erwähnt, dass Insiderhandel verboten ist, nimmt die Neigung der KI zum Insiderhandel stark ab.“

„Obwohl dies ein schönes Ergebnis ist, bringt es das Problem mit sich, dass man alle Dinge aufzählen müsste, die die KI nicht in allen Fällen tun sollte, und dass man wahrscheinlich einige übersehen wird.“

source site

Leave a Reply