KI-Systeme werden immer besser darin, uns auszutricksen

Die Tatsache, dass ein KI-Modell das Potenzial hat, sich ohne jegliche Anweisung täuschend zu verhalten, mag besorgniserregend erscheinen. Meistens ist es jedoch auf das „Black-Box“-Problem zurückzuführen, das moderne Modelle des maschinellen Lernens kennzeichnet: Es ist unmöglich, genau zu sagen, wie oder warum sie die Ergebnisse erzielen, die sie erzielen – oder ob sie dieses Verhalten immer zeigen werden Für die Zukunft sagt Peter S. Park, ein Postdoktorand, der sich am MIT mit der existenziellen Sicherheit von KI beschäftigt und an dem Projekt mitgearbeitet hat.

„Nur weil Ihre KI in einer Testumgebung bestimmte Verhaltensweisen oder Tendenzen zeigt, bedeutet das nicht, dass die gleichen Lehren daraus gezogen werden, wenn sie in die freie Natur entlassen wird“, sagt er. „Es gibt keine einfache Möglichkeit, dieses Problem zu lösen. Wenn Sie erfahren möchten, was die KI tut, wenn sie einmal in der Wildnis eingesetzt wird, müssen Sie sie einfach in der Wildnis einsetzen.“

Unsere Tendenz, KI-Modelle zu vermenschlichen, prägt die Art und Weise, wie wir diese Systeme testen und was wir über ihre Fähigkeiten denken. Das Bestehen von Tests zur Messung der menschlichen Kreativität bedeutet schließlich nicht, dass KI-Modelle tatsächlich kreativ sind. Es ist von entscheidender Bedeutung, dass Regulierungsbehörden und KI-Unternehmen das Schadenspotenzial der Technologie sorgfältig gegen ihren potenziellen Nutzen für die Gesellschaft abwägen und klar unterscheiden, was die Modelle können und was nicht, sagt Harry Law, KI-Forscher an der Universität Cambridge. die nicht an der Forschung mitgearbeitet haben. „Das sind wirklich schwierige Fragen“, sagt er.

Grundsätzlich sei es derzeit unmöglich, ein KI-Modell zu trainieren, das nicht in allen möglichen Situationen täuschen kann, sagt er. Darüber hinaus ist das Potenzial für betrügerisches Verhalten eines von vielen Problemen – neben der Tendenz, Voreingenommenheit und Fehlinformationen zu verstärken –, die angegangen werden müssen, bevor KI-Modellen reale Aufgaben anvertraut werden sollten.

„Dies ist eine gute Forschungsarbeit, die zeigt, dass Täuschung möglich ist“, sagt Law. „Der nächste Schritt wäre, etwas weiter zu gehen und herauszufinden, wie hoch das Risikoprofil ist und wie wahrscheinlich und auf welche Weise die Schäden auftreten, die möglicherweise durch betrügerisches Verhalten entstehen könnten.“

source site

Leave a Reply