Europol warnt vor Kriminellen, die KI-Chatbots befehligen

Europol hat diese Woche eine deutliche Warnung herausgegeben, in der die Risiken hervorgehoben werden, die von Kriminellen ausgehen, wenn sie sich mit der neuen Welle fortschrittlicher KI-Chatbots auseinandersetzen.

In einem diese Woche online geteilten Beitrag beschrieb die europäische Strafverfolgungsbehörde, wie Tools wie ChatGPT und GPT-4 von OpenAI und Bard von Google zunehmend von Kriminellen eingesetzt werden, die nach neuen Wegen suchen, um Mitglieder der Öffentlichkeit zu betrügen.

Es identifizierte drei spezifische Bereiche, die es am meisten betreffen.

An erster Stelle stehen Betrug und Social Engineering, bei denen E-Mails an Ziele gesendet werden, in der Hoffnung, sie dazu zu bringen, eine mit Malware infizierte Datei herunterzuladen oder auf einen Link zu klicken, der sie zu einer ebenso gefährlichen Website führt.

Phishing-E-Mails, wie sie genannt werden, sind normalerweise voller Grammatik- und Rechtschreibfehler und landen im Junk-Ordner. Selbst diejenigen, die es in den Posteingang schaffen, sind so erschreckend geschrieben, dass der Empfänger sie ohne weiteres Nachdenken schnell verwerfen kann.

Aber KI-Chatbots sind in der Lage, gut geschriebene Nachrichten frei von schlampigen Fehlern zu erstellen, sodass Kriminelle überzeugende E-Mails versenden können, was bedeutet, dass die Empfänger beim Überprüfen ihrer Nachrichten besonders aufmerksam sein müssen.

Europol sagte, die fortschrittlichen Chatbots seien in der Lage, „Sprachmuster zu reproduzieren, um den Sprachstil bestimmter Personen oder Gruppen zu imitieren“, und fügte hinzu, dass eine solche Fähigkeit „in großem Umfang missbraucht werden kann, um potenzielle Opfer dazu zu verleiten, ihr Vertrauen in die Hände zu legen von kriminellen Akteuren.“

Eine überzeugendere Form der Desinformation wird sich ebenfalls ausbreiten, wobei die neue Welle von Chatbots sich durch die Erstellung authentisch klingender Texte in Geschwindigkeit und Umfang auszeichnet, sagte Europol und fügte hinzu: „Dies macht das Modell ideal für Propaganda- und Desinformationszwecke, soweit es möglich ist Nutzer können mit relativ geringem Aufwand Botschaften generieren und verbreiten, die eine bestimmte Erzählung widerspiegeln.“

Drittens nannte Europol die Codierung als einen neuen Bereich, der von Cyberkriminellen genutzt wird, um bösartige Software zu erstellen. „ChatGPT kann nicht nur eine menschenähnliche Sprache generieren, sondern auch Code in einer Reihe verschiedener Programmiersprachen erstellen“, betonte die Agentur. „Für einen potenziellen Kriminellen mit wenig technischem Wissen ist dies eine unschätzbare Ressource, um bösartigen Code zu produzieren.“

Es hieß, die Situation „biete einen düsteren Ausblick“ für diejenigen, die auf der rechten Seite des Gesetzes stehen, da schändliche Aktivitäten im Internet immer schwieriger zu erkennen seien.

Der KI-Chatbot-Wahn begann im November 2022, als das von Microsoft unterstützte OpenAI sein beeindruckendes ChatGPT-Tool veröffentlichte. Eine verbesserte Version, GPT-4, wurde erst kürzlich veröffentlicht, während Google auch sein eigenes ähnliches Tool namens Bard vorgestellt hat. Alle drei sind bekannt für ihre beeindruckende Fähigkeit, mit nur wenigen Eingabeaufforderungen natürlich klingende Texte zu erstellen, wobei die Technologie in den kommenden Jahren wahrscheinlich eine Reihe von verschiedenen Jobs unterstützen oder sogar ersetzen wird.

Mit anderen ähnlichen KI-basierten Technologien können Sie mit nur wenigen Texteingabeaufforderungen Originalbilder, Videos und Audio erstellen, die zeigen, dass keine Form von Medien dem Einfluss von KI entgehen wird, wenn sich die Technologie weiter verbessert.

Einige führende Stimmen haben verständliche Bedenken hinsichtlich seines raschen Aufstiegs, mit einem kürzlich von Elon Musk, Apple-Mitbegründer Steve Wozniak und verschiedenen Experten unterzeichneten offenen Brief, in dem behauptet wird, dass KI-Systeme mit menschlicher Wettbewerbsintelligenz „tiefgreifende Risiken für die Gesellschaft und die Menschheit“ darstellen können. Der Brief forderte eine sechsmonatige Pause, um die Erstellung und Implementierung von Sicherheitsprotokollen für die fortschrittlichen Tools zu ermöglichen, und fügte hinzu, dass „die Menschheit bei richtiger Handhabung eine blühende Zukunft mit KI genießen kann“.

Empfehlungen der Redaktion






source site

Leave a Reply