EU-Cybersicherheitsbehörde schlägt Alarm wegen KI-bedingter Störungen der Europawahlen – EURACTIV.com

ENISA, die EU-Behörde für Cybersicherheit, hat davor gewarnt, dass leistungsstarke neue KI-Modelle zu einem Störfaktor bei den EU-Wahlen im kommenden Juni werden könnten, da böswillige Akteure sie für groß angelegte Informationsmanipulationskampagnen nutzen könnten.

Die Warnung erfolgt im Rahmen der Bedrohungslandschaft 2023, in der die Cybersicherheitsbehörde jährlich eine Bestandsaufnahme der sich entwickelnden Trends vornimmt. Im Mittelpunkt stehen mögliche Störungen im Zusammenhang mit KI-Chatbots, wie dem bekannten ChatGPT, und jeglicher Form der KI-gestützten Informationsmanipulation.

„Das Vertrauen in den EU-Wahlprozess wird entscheidend von unserer Fähigkeit abhängen, uns auf cybersichere Infrastrukturen sowie auf die Integrität und Verfügbarkeit von Informationen zu verlassen. Jetzt liegt es an uns, sicherzustellen, dass wir die notwendigen Maßnahmen ergreifen, um dieses sensible, aber wesentliche Ziel für unsere Demokratien zu erreichen“, sagte ENISA-Geschäftsführer Juhan Lepassaar in einer Erklärung.

Die Angst, dass leistungsstarke neue KI-Modelle zur Störung von Wahlprozessen eingesetzt werden könnten, gibt es nicht nur in Europa. Angesichts der bevorstehenden Wahlen in den Vereinigten Staaten und im Vereinigten Königreich warnen Experten vor der Gefahr, dass von KI erstellte Bilder oder Videos viral gehen, und vor KI-gestützten Propaganda-Bots.

KI-Modelle sind insbesondere für psychologische Manipulationen, das sogenannte Social Engineering, relevant, da sie in der Lage sind, menschenähnliche Texte oder authentisch aussehende Bilder und Videos zu produzieren, die das Abbild einer Person durch eine andere ersetzen, sogenannte Deepfakes.

Der ENISA-Bericht stellt fest, dass seit der öffentlichen Veröffentlichung von ChatGPT [the early demo version in November 2022]Künstliche Intelligenz war der wichtigste Innovationstreiber im Social Engineering, insbesondere dank der Fähigkeit der Technologie, Text zu produzieren, der eine legitime Quelle nachahmt, und Voice-Cloning sowie KI-gestütztes Data Mining durchzuführen.

Im März berichtete Euractiv, dass eine andere EU-Agentur, Europol, die für die Strafverfolgung zuständig ist, auf die potenzielle kriminelle Nutzung generativer KI-Systeme wie ChatGPT für Online-Betrug und andere Cyberkriminalität hingewiesen habe.

ENISA schrieb, dass „der Trend darauf hindeutet, dass generative KI Bedrohungsakteuren eine Möglichkeit bietet, anspruchsvolle und gezielte Angriffe schnell und in großem Umfang durchzuführen“, und fügte hinzu, dass sie „in der Zukunft gezieltere Social-Engineering-Angriffe mit KI-basierter Technologie“ erwartet.

Das Klonen von Stimmen, der Prozess der synthetischen Reproduktion der Stimme einer Person anhand von nur wenigen Sekunden in sozialen Medien geposteten Videos, wird als wachsende Bedrohung genannt. Beispielsweise könnte es dazu verwendet werden, die Stimme eines Familienmitglieds zu fälschen und ein Lösegeld zu fordern oder einen Politiker öffentlich zu verunglimpfen.

„Die bahnbrechende Einführung generativer KI und KI-Chatbots verändert die Bedrohungslandschaft schnell, wobei die Fähigkeit, KI-generierte Inhalte oder KI-basierte Interaktion zu erkennen, zu einer dringlichen Angelegenheit wird“, warnte der Bericht.

KI-gestützte Chatbots wie ChatGPT von OpenAI und Bard von Google können ebenfalls einer Manipulation der Datensätze ausgesetzt sein, um beispielsweise ein Unternehmen oder einen politischen Konkurrenten in den Antworten des Systems in ein schlechtes Licht zu rücken.

Unterdessen haben die politischen Entscheidungsträger der EU das AI Act fertiggestellt, die weltweit erste umfassende Verordnung zur künstlichen Intelligenz. Der Umgang mit generativer KI und Deepfakes ist jedoch noch eine weitgehend offene Diskussion.

Das Thema Deepfakes ist in Spanien, dem Land, das derzeit die rotierende EU-Ratspräsidentschaft innehat, in den Vordergrund gerückt, nachdem mithilfe der Bildmanipulationstechnik gefälschte Nacktbilder von Mädchen im Teenageralter erstellt wurden.

Der erste Test, dass ein Deepfake eine Wahl beeinflusst, fand Anfang dieses Jahres in der Türkei statt, wo einer der Hauptkandidaten für die Präsidentschaftswahlen aus dem Rennen ausschied, nachdem ein manipuliertes Sexvideo viral ging.

[Edited by Zoran Radosavljevic]

Lesen Sie mehr mit EURACTIV


source site

Leave a Reply