ChatGPT-Ersteller versucht, Chatbot-Halluzinationen zu beseitigen

Trotz aller Aufregung rund um ChatGPT und ähnliche KI-gestützte Chatbots weisen die textbasierten Tools immer noch einige schwerwiegende Probleme auf, die gelöst werden müssen.

Dazu gehört ihre Tendenz, Dinge zu erfinden und sie als Tatsachen darzustellen, wenn sie keine Antwort auf eine Frage kennen, ein Phänomen, das mittlerweile als „Halluzinieren“ bekannt ist. Wie Sie sich vorstellen können, könnte es schwerwiegende Folgen haben, jemandem, der einen der neuen leistungsstarken Chatbots nutzt, Unwahrheiten als Tatsachen darzustellen.

Solche Probleme wurden kürzlich durch einen Vorfall deutlich, bei dem ein erfahrener Anwalt aus New York City Fälle anführte – vorgeschlagen von ChatGPT –, die sich, wie sich herausstellte, nie ereignet hatten. Dem Anwalt können aufgrund seines Handelns Sanktionen drohen.

Ein weiterer Vorfall erregte im April große Aufmerksamkeit, als ChatGPT offenbar die Geschichte neu schrieb, indem es erklärte, ein australischer Bürgermeister sei wegen Bestechung inhaftiert worden, während er für eine Bank arbeitete, obwohl er in dem Fall tatsächlich ein Whistleblower gewesen war.

Um die Chatbot-Technologie zuverlässiger zu machen, haben die Ingenieure von OpenAI bekannt gegeben, dass sie ihre Bemühungen derzeit auf die Verbesserung der Software konzentrieren, um diese problematischen Vorkommnisse zu reduzieren und hoffentlich zu beseitigen.

In einem am Mittwoch veröffentlichten und von CNBC aufgegriffenen Forschungspapier sagte OpenAI, dass Chatbots „die Tendenz zeigen, in Momenten der Unsicherheit Fakten zu erfinden“, und fügte hinzu: „Diese Halluzinationen sind besonders problematisch in Bereichen, die eine mehrstufige Argumentation erfordern, da eine einzige.“ Ein logischer Fehler reicht aus, um eine viel größere Lösung zum Scheitern zu bringen.“

Um die Fehltritte des Chatbots zu beheben, arbeiten OpenAI-Ingenieure an Möglichkeiten für seine KI-Modelle, sich selbst für die Ausgabe korrekter Daten zu belohnen, wenn sie sich einer Antwort nähern, anstatt sich erst am Punkt der Schlussfolgerung zu belohnen. Den Ingenieuren zufolge könnte das System zu besseren Ergebnissen führen, da es eher ein menschenähnliches Gedankenkettenverfahren beinhaltet.

Einige Experten äußerten jedoch Zweifel an der Arbeit und sagten gegenüber CNBC, dass sie von geringem Nutzen sei, bis sie in ChatGPT integriert würden, das in der Zwischenzeit weiter halluzinieren werde. OpenAI hat nicht gesagt, ob und wann es seine Arbeit in seine generativen KI-Tools integrieren könnte.

Es ist zwar gut zu wissen, dass OpenAI an der Lösung des Problems arbeitet, es könnte jedoch eine Weile dauern, bis wir Verbesserungen sehen. In der Zwischenzeit kann ChatGPT, wie OpenAI selbst sagt, gelegentlich falsche Informationen generieren. Bestätigen Sie daher unbedingt seine Antworten, wenn diese Teil wichtiger Aufgaben sind.

Empfehlungen der Redaktion






source site

Leave a Reply