Deepfakes: Einblicke in den „Propagandakrieg“ und seine Auswirkungen auf den Ukraine-Konflikt | Wissenschaft | Nachricht

Deepfakes werden in einem „Propagandakrieg“ eingesetzt, der sich auf den Ukraine-Konflikt auswirken könnte (Bild: Getty)

Ein Experte für Cybersicherheit hat erklärt, wie Deepfakes in einem „Propagandakrieg“ eingesetzt werden, der potenzielle Auswirkungen auf den Konflikt in der Ukraine haben könnte. Ein Deep Fake ist ein Versuch, sich als jemand auszugeben oder Material zu präsentieren, „als käme es aus einer anderen Quelle“, normalerweise im Videoformat.

Weniger als einen Monat nach dem Einmarsch Russlands in die Ukraine zeigte ein auf Twitter geteiltes Deep-Fake-Video eine Simulation des ukrainischen Präsidenten Wolodymyr Selenskyj, der seine Truppen aufzufordern schien, ihre Waffen niederzulegen.

Während es schnell verspottet wurde, als die Ukrainer seine Mängel ohne großes Zögern entdeckten, löste es Alarm wegen des Potenzials für die Technologie aus, sich weiterzuentwickeln und eine größere Rolle im Konflikt zu spielen.

Toby Lewis, Global Head of Threat Analysis, sagte gegenüber Express.co.uk: „Das Klassische, was wir bei Deepfakes sehen, ist die Identität ausländischer Führer, Prominenter oder hochkarätiger Personen, die dazu gebracht werden, eine Botschaft zu übermitteln, die nicht wahr ist.

„Die unterstützende Technologie dafür ist künstliche Intelligenz (KI), die verwendet wird, um einen echten Videoclip zu bearbeiten oder zu modifizieren, eine Audionachricht zu ändern oder etwas völlig Neues zu erstellen.

Zelensky

Ein gefälschtes Video von Zelenksy zeigte, wie er seine Truppen aufforderte, ihre Waffen niederzulegen (Bild: Getty)

„Zu Beginn des Ukraine-Konflikts gab es viel mehr Spekulationen darüber, wie sich dies um Selenskyj als seine Position als Kriegsführer gewickelt hätte. Viele Leute wollten sehen, ob er sich zurückziehen oder untertauchen würde, wenn die Ukraine von der russischen Invasion so überwältigt würde.

„Deshalb haben wir in den ersten Monaten März, April, Mai und Juni eine Reihe von Deep-Fake-Videos von Selenskyj gesehen, die ihn zeigen, wie er über das Niederlegen der Waffen spricht, seine Truppen auffordert, sich zu ergeben, und sehr versucht, dies voranzutreiben Nachricht raus.“

Aber ein Jahr nach der Invasion ist das ukrainische Militär gut gerüstet, um mit Bedrohungen dieser Art fertig zu werden, sagte Lewis.

Er erklärte: „Es [the deep fake] wurde entwickelt, um sich auf schlechte Kommunikation unter dem ukrainischen Militär zu verlassen – dass sie dieses auf Telegram oder Twitter oder Instagram verbreitete Video als Evangelium ansehen würden. Aber im Laufe der Zeit sind die militärischen Kommunikationsplattformen des ukrainischen Militärs robust genug, um festzustellen, dass diese Videos nicht aus maßgeblichen Quellen stammen.“

LESEN SIE MEHR: Erschreckendes Filmmaterial zeigt, wie Spinnen in Großbritannien viel größere Spitzmäuse verschlingen

Hacker

Staatliche Akteure oder verbündete Gruppen könnten Deepfakes verwenden, um Fehlinformationen zu verbreiten (Bild: Getty)

Er warnte jedoch davor, dass die Nutzung der Technologie durch die Russen noch einen gewissen Spielraum haben könnte, um voranzukommen, da es immer noch „unglaublich schwierig sein kann, die Quelle eines Videos zu bestimmen“.

Herr Lewis sagte: „Sie haben diese sich überschneidenden Kreise von staatlich gelenkten und staatlich ausgerichteten [deep fakes].

„Wenn Sie keine supergeheimen Informationen darüber haben, dass Wladimir Putin ans Telefon gegangen ist und Befehle erteilt hat, ist es wirklich schwer zu sagen, ob ein Video, das beispielsweise von einer Hackergruppe wie Kilnet stammt, mehr war als scheinbar nationalistische Inbrunst eine Weise, die an staatlichen Interessen ausgerichtet ist, aber das heißt nicht, dass sie vom Staat mit einer bestimmten Agenda gelenkt wurden.

„Diese Art von Videos wird in einem Propagandakrieg verwendet, und darauf läuft es im Grunde hinaus. Es geht darum, „wie können wir Botschaften nutzen, um die Meinung von Einzelpersonen zu formen, indem wir entweder jemanden schlecht darstellen – und es wird eindeutig ein Interesse an staatlichen Akteuren geben, diese Erzählung zu formen –, aber ebenso könnte es relativ laienhafte Ansätze von Seiten des Staates geben -ausgerichtete Gruppen.“

Die Meinungsbildung Einzelner ist eine Schlüsselstrategie, mit der Putin die öffentliche Unterstützung für seine Invasion in der Ukraine unter den Russen gewonnen hat, indem er Technologie und verfügbare Medien nutzte, um Fehlinformationen über sein Nachbarland zu verbreiten.

NICHT VERPASSEN
Mikrometeore schlugen erneut ein und verursachten das jüngste Leck eines russischen Raumfahrzeugs [REVEAL]
ChatGPT schafft es nur, einen „einfachen“ Lebenslauf für Arbeitssuchende zu schreiben [INSIGHT]
Besorgniserregendes Satellitenbild aus dem All zeigt das wahre Ausmaß von Dürren [INSIGHT]

Putin

Putin hat Propaganda und Fehlinformationen eingesetzt, um die öffentliche Unterstützung für seine Invasion in Russland zu gewinnen (Bild: Getty)

Laut der RAND-Organisation ist die russische Staatspropaganda „schnell, kontinuierlich und repetitiv, und ihr fehlt die Verpflichtung zur Konsistenz“. Es wird in den Formaten „Text, Video, Audio und Standbilder“ „über das Internet, soziale Medien, Satellitenfernsehen und traditionelle Radio- und Fernsehübertragungen“ verbreitet.

Aber es ist nicht auf russische staatliche Akteure beschränkt, die Fehlinformationen verbreiten. Letztendlich besteht die Gefahr, dass jeder mit den entsprechenden Fähigkeiten und Kenntnissen KI auf diese schändliche Weise nutzen kann.

Herr Lewis sagte: „Diese Technologien sind keine Superregierungswaffen. Sie sind auf Google und stehen der Öffentlichkeit frei zum Spielen zur Verfügung.“

Allerdings gibt es derzeit einige Schwachstellen in der Deep-Fake-Technologie, die leicht zu erkennen sind.

Herr Lewis sagte: „Es gibt kleine Details des menschlichen Charakters, die wirklich schwer zu replizieren sind. Kleine Zuckungen des Arms oder Manierismen und solche Dinge, die als Mensch etwas willkürlich einfügen, wenn wir sprechen. Kann KI das wirklich darstellen? Nun, die Leute, die diese Personen kennen, werden wissen, dass diese Person nicht so spricht oder handelt.

Harmagedon

Könnte ein Deep Fake eine Nuklearkatastrophe auslösen? Herr Lewis denkt nein (Bild: Getty)

Aber es gibt das Potenzial für Deepfakes, insbesondere von Zelenksy, raffinierter zu werden. Herr Lewis sagte: „Je mehr Daten Sie in ein maschinelles Lernmodell einspeisen, je mehr Videos und Beispiele Sie von Zelenksy im Fernsehen haben, desto einfacher wird es, nachzubilden, wie er sich verhält und spricht.“

Aber könnte es jemals ein Szenario geben, in dem ein Deep Fake einen Anführer zeigt, der ein Nuklearkommando erteilt, nur damit Russland oder die USA es für wahr halten und reagieren?

Herr Lewis antwortete auf die Frage: „Ich würde gerne glauben, dass es eine Reihe von Ausfallsicherungen gibt. Was ist der auslösende Punkt und welche Verifizierungsebene steckt dahinter? Würde ein einfaches Video allein ausreichen, um dies zu rechtfertigen? Wahrscheinlich nicht.

„Das kommt auf die Checks and Balances zurück, die man sich von jeder anständigen Demokratie erhoffen würde. Ja, in der modernen Ära können Sie Deepfakes und umstrittene Nachrichten in den sozialen Medien verbreiten. Aber ich würde gerne hoffen, dass selbst in den Hochspannungen des Krieges jede Entscheidung über Massenvernichtungswaffen auf viel mehr beruht als auf einem Tweet oder einer WhatsApp, die jemandem nicht gefällt.“


source site

Leave a Reply