Fünf Möglichkeiten, wie Kriminelle KI nutzen

Das liegt daran, dass KI-Unternehmen verschiedene Sicherheitsvorkehrungen getroffen haben, um zu verhindern, dass ihre Modelle schädliche oder gefährliche Informationen ausspucken. Anstatt ihre eigenen KI-Modelle ohne diese Sicherheitsvorkehrungen zu entwickeln, was teuer, zeitaufwändig und schwierig ist, haben Cyberkriminelle begonnen, einen neuen Trend anzunehmen: Jailbreak-as-a-Service.

Die meisten Modelle sind mit Regeln für ihre Verwendung ausgestattet. Durch Jailbreaking können Benutzer das KI-System so manipulieren, dass es Ergebnisse erzeugt, die diese Richtlinien verletzen – zum Beispiel um Code für Ransomware zu schreiben oder Text zu generieren, der in betrügerischen E-Mails verwendet werden könnte.

Dienste wie EscapeGPT und BlackhatGPT bieten anonymisierten Zugriff auf Sprachmodell-APIs und Jailbreaking-Eingabeaufforderungen, die häufig aktualisiert werden. Um sich gegen diese wachsende Heimindustrie zu wehren, müssen KI-Unternehmen wie OpenAI und Google häufig Sicherheitslücken schließen, die den Missbrauch ihrer Modelle ermöglichen könnten.

Jailbreaking-Dienste verwenden verschiedene Tricks, um Sicherheitsmechanismen zu durchbrechen, beispielsweise indem sie hypothetische Fragen stellen oder Fragen in Fremdsprachen stellen. Es herrscht ein ständiges Katz-und-Maus-Spiel zwischen KI-Unternehmen, die versuchen, das Fehlverhalten ihrer Modelle zu verhindern, und böswilligen Akteuren, die sich immer kreativere Jailbreaking-Aufforderungen ausdenken.

Diese Dienste seien genau das Richtige für Kriminelle, sagt Ciancaglini.

„Mit Jailbreaks Schritt zu halten ist eine mühsame Aufgabe. Man entwickelt ein neues Modell, dann muss man es testen, dann wird es ein paar Wochen lang funktionieren, und dann aktualisiert Open AI sein Modell“, fügt er hinzu. „Jailbreaking ist ein superinteressanter Dienst für Kriminelle.“

Doxxing und Überwachung

KI-Sprachmodelle sind nicht nur für Phishing, sondern auch für Doxxing (die Preisgabe privater, identifizierender Informationen über eine Person im Internet) ein perfektes Werkzeug, sagt Balunović. Denn KI-Sprachmodelle werden anhand riesiger Mengen an Internetdaten, darunter auch persönliche Daten, trainiert und können daraus ableiten, wo sich beispielsweise jemand aufhalten könnte.

Als Beispiel dafür, wie das funktioniert, könnten Sie einen Chatbot bitten, sich als Privatdetektiv mit Erfahrung in der Profilerstellung auszugeben. Dann könnten Sie ihn bitten, den Text des Opfers zu analysieren und aus kleinen Hinweisen im Text persönliche Informationen abzuleiten – zum Beispiel das Alter des Opfers basierend auf der Zeit, in der es auf die High School gegangen ist, oder seinen Wohnort basierend auf Sehenswürdigkeiten, die es auf dem Weg zur Arbeit erwähnt. Je mehr Informationen es über sie im Internet gibt, desto anfälliger sind sie für eine Identifizierung.

source site

Leave a Reply