Deep-Fake-Video von Biden beim Drag-Werben von Bud Light geht viral, da Experten vor den Risiken der Technologie warnen

Fake-Videos von Präsident Joe Biden und dem republikanischen Spitzenkandidaten Donald Trump machen deutlich, dass das Präsidentschaftsrennen 2024 der erste ernsthafte Test für die Widerstandsfähigkeit der amerikanischen Demokratie gegenüber künstlicher Intelligenz sein könnte.

Videos von Biden als Transstar Dylan Mulvaney, der Bud Light bewirbt, und Trump, der in einem ruhigen Nagelstudio in Albuquerque Steuerhinterziehung lehrt, zeigen, dass nicht einmal die mächtigsten Persönlichkeiten des Landes vor KI-Identitätsdiebstahl sicher sind.

Experten sagen, dass es heute zwar relativ einfach sei, diese Fälschungen zu erkennen, dies jedoch in den kommenden Jahren unmöglich sein werde, da die Technologie so rasant voranschreite.

Es gab bereits Einblicke in die realen Schäden, die KI anrichtet. Erst Anfang dieser Woche löste ein von der KI erstelltes Bild von schwarzem Rauch, der aus dem Pentagon aufstieg, Schockwellen durch den Aktienmarkt aus, bevor Medienfaktenprüfer den Rekord endlich korrigieren konnten.

Experten glauben, dass es aufgrund der unheimlichen Genauigkeit von KI-generierten Stimmen und Gesichtern „immer schwieriger wird, Desinformation zu erkennen“.

Ein Deep Fake von Bidens Pre-Gaming in Drag, gepostet von @drunkamerica auf Instagram, erhielt in den letzten fünf Tagen 223.107 Likes. Experten glauben, dass es aufgrund der unheimlichen Genauigkeit von KI-generierten Stimmen und Gesichtern „immer schwieriger wird, Desinformation zu erkennen“.

„Es wird immer schwieriger, Desinformation zu erkennen, insbesondere hochentwickelte KI-generierte Deep Fakes“, so Cayce Myers, Professor an der School of Communication der Virginia Tech.

„Um diese Desinformation zu erkennen, müssen Benutzer über mehr Medienkompetenz und mehr Geschick bei der Prüfung des Wahrheitsgehalts jeder Behauptung verfügen“, sagte Professor Myers, der sich mit der Deep-Fake-Technologie und ihrer zunehmenden Verbreitung beschäftigt.

„Die Kostenbarriere für generative KI ist außerdem so niedrig, dass mittlerweile fast jeder mit einem Computer und Internet Zugang zu KI hat“, sagte Myers.

Myers betonte die Rolle, die sowohl Technologieunternehmen als auch der Durchschnittsbürger spielen müssen, um zu verhindern, dass diese Wellen unheimlicher, glaubhafter Fälschungen die US-Demokratie im Jahr 2024 überwältigen.

„Quellen zu untersuchen, Warnsignale für Desinformation zu verstehen und gewissenhaft mit dem umzugehen, was wir online teilen, ist eine persönliche Möglichkeit, die Verbreitung von Desinformation zu bekämpfen“, sagte Myers. „Das wird jedoch nicht reichen.“

„Unternehmen, die KI-Inhalte produzieren, und Social-Media-Unternehmen, in denen Desinformation verbreitet wird, müssen ein gewisses Maß an Schutzmaßnahmen einführen, um die Verbreitung der weit verbreiteten Desinformation zu verhindern.“

Es besteht die Befürchtung, dass Videos von Politikern, die Worte vorbringen, die sie nie gesagt haben, als wirksames Instrument der Desinformation genutzt werden könnten, um Wähler zu beeinflussen.

Berüchtigte Trollfarmen in Russland und anderen Teilen der Welt, die den USA feindlich gesinnt sind, werden genutzt, um in den sozialen Medien Unmut zu säen.

Es ist fünf Jahre her, dass BuzzFeed und der Regisseur und Komiker Jordan Peele eine unheimliche Deep-Fake-Satire auf den ehemaligen Präsidenten Barack Obama produzierten, um auf das alarmierende Potenzial der Technologie aufmerksam zu machen.

„Sie könnten mich Dinge sagen lassen wie: Ich weiß nicht, [Marvel supervillain] „Killmonger hatte Recht“ oder „Ben Carson ist am versunkenen Ort“, sagte Peele in seinem fachkundigen Obama-Eindruck.

Eine Deep-Fake-Parodie des ehemaligen Präsidenten Trump überlagerte seine Stimme und sein Abbild mit dem zwielichtigen Anwalt des AMC-Netzwerks, Saul Goodman aus den Serien „Breaking Bad“ und „Better Call Saul“.  Das Video vom YouTube-Kanal CtrlShiftFace hat seit seiner Veröffentlichung 24.000 Likes erhalten

Eine Deep-Fake-Parodie des ehemaligen Präsidenten Trump überlagerte seine Stimme und sein Abbild mit dem zwielichtigen Anwalt des AMC-Netzwerks, Saul Goodman aus den Serien „Breaking Bad“ und „Better Call Saul“. Das Video vom YouTube-Kanal CtrlShiftFace hat seit seiner Veröffentlichung 24.000 Likes erhalten

„Oder wie wäre es damit: „Einfach gesagt, Präsident Trump ist ein absoluter Vollidiot.““

Aber es sind nicht nur Akademiker, Komiker und Nachrichtenagenturen, die diese Behauptungen aufstellen.

Wichtige Politikexperten haben ihre Bedenken zum Ausdruck gebracht, und zwar mit zunehmender Dringlichkeit in den letzten Jahren.

„Ein gut getimter und sorgfältig geschriebener Deepfake oder eine Reihe von Deepfakes könnte eine Wahl beeinflussen“, sagten Experten im Jahr 2019, die für den Council on Foreign Relations schrieben.

WAS SIND DEEPFAKES?

Die Technologie hinter Deepfakes wurde 2014 von Ian Goodfellow entwickelt, dem Direktor für maschinelles Lernen bei Apples Special Projects Group und einem führenden Unternehmen auf diesem Gebiet.

Das Wort entsteht aus der Kombination der Begriffe „Deep Learning“ und „Fake“ und ist eine Form der künstlichen Intelligenz.

Das System untersucht eine Zielperson in Bildern und Videos und ermöglicht so die Erfassung mehrerer Blickwinkel und die Nachahmung ihres Verhaltens und ihrer Sprachmuster.

Die Technologie erregte während der Wahlsaison Aufmerksamkeit, da viele befürchteten, dass Entwickler damit den Ruf politischer Kandidaten schädigen würden.

Die Gruppe warnte auch, dass Deep Fakes bald „Gewalt in einer Stadt auslösen könnten, die auf Unruhen vorbereitet ist, die Narrative der Aufständischen über die angeblichen Gräueltaten eines Feindes verstärken oder die politischen Spaltungen in einer Gesellschaft verschärfen könnten“.

Während Myers von der Virginia Tech anerkennt, dass Programme wie Photoshop seit Jahren zu ähnlich lebensechten Fälschungen fähig sind, sagt er, dass der Unterschied darin besteht, dass Desinformations-KI in großen Mengen und immer ausgefeilter hergestellt werden kann. „

„Photoshop erlaubt gefälschte Bilder“, sagte Myers, „aber KI kann veränderte Videos erstellen, die sehr überzeugend sind.“ Angesichts der Tatsache, dass Desinformation inzwischen eine weit verbreitete Quelle von Online-Inhalten ist, kann diese Art von Fake-News-Inhalten ein viel größeres Publikum erreichen, insbesondere wenn der Inhalt viral geht.“

Ähnlich wie die Videos „Better Call Trump“ und Biden Bud Light.

Myers hat argumentiert, dass wir in naher Zukunft viel mehr Desinformation sehen werden, sowohl visueller als auch schriftlicher, ernster und komischer Art.

Aber Hilfe – in Form staatlicher Regulierung jeglicher Art – scheint nicht auf dem Weg zu sein.

An diesem Mittwoch sagte der ehemalige Google-Chef Erich Schmidt, ein langjähriger Berater im Weißen Haus und kürzlich Co-Vorsitzender der US-amerikanischen Nationalen Sicherheitskommission für KI, er bezweifle, dass die USA eine neue Regulierungsbehörde einsetzen würden, um die KI zu kontrollieren.

„Das Problem ist, dass der Gesetzgeber kein neues Gesetz zur Regulierung der KI schaffen will, bevor wir wissen, wohin die Technologie führt“, sagte Myers.

Dutzende verifizierte Accounts wie WarMonitors, BloombergFeed und RT haben das Bild weitergegeben, auf dem neben einem weißen Gebäude schwarzer Rauch aus dem Boden aufsteigt

Dutzende verifizierte Accounts wie WarMonitors, BloombergFeed und RT haben das Bild weitergegeben, auf dem neben einem weißen Gebäude schwarzer Rauch aus dem Boden aufsteigt

SO ERKENNEN SIE EINEN DEEPFAKE

1. Unnatürliche Augenbewegung. Augenbewegungen, die nicht natürlich aussehen – oder ein Mangel an Augenbewegungen, wie z. B. fehlendes Blinzeln – sind große Warnsignale. Es ist eine Herausforderung, den Vorgang des Blinzelns so nachzubilden, dass er natürlich aussieht. Es ist auch eine Herausforderung, die Augenbewegungen einer echten Person nachzubilden. Das liegt daran, dass jemandes Blick normalerweise der Person folgt, mit der er spricht.

2. Unnatürliche Gesichtsausdrücke. Wenn etwas an einem Gesicht nicht richtig aussieht, kann das auf eine Gesichtsveränderung hinweisen. Dies tritt auf, wenn ein Bild über ein anderes gestickt wurde.

3. Ungünstige Positionierung der Gesichtszüge. Wenn das Gesicht einer Person in eine Richtung zeigt und ihre Nase in eine andere Richtung, sollten Sie hinsichtlich der Authentizität des Videos skeptisch sein.

4. Ein Mangel an Emotionen. Sie können auch das sogenannte „Gesichts-Morphing“ oder Bildstiche erkennen, wenn das Gesicht einer Person nicht die Emotion zu zeigen scheint, die mit dem, was sie angeblich sagt, einhergehen sollte.

5. Unbeholfen aussehender Körper oder Haltung. Ein weiteres Zeichen ist, wenn die Körperform einer Person nicht natürlich aussieht oder eine ungünstige oder inkonsistente Positionierung von Kopf und Körper vorliegt. Dies ist möglicherweise eine der leichter zu erkennenden Inkonsistenzen, da sich die Deepfake-Technologie normalerweise auf Gesichtszüge und nicht auf den gesamten Körper konzentriert.

6. Unnatürliche Körperbewegung oder Körperform. Wenn jemand verzerrt oder verwirrt aussieht, wenn er sich zur Seite dreht oder den Kopf bewegt, oder seine Bewegungen von einem Bild zum nächsten ruckartig und unzusammenhängend sind, sollten Sie vermuten, dass es sich bei dem Video um eine Fälschung handelt.

7. Unnatürliche Färbung. Ungewöhnlicher Hautton, Verfärbungen, seltsame Beleuchtung und falsch platzierte Schatten sind alles Anzeichen dafür, dass es sich bei dem, was Sie sehen, wahrscheinlich um eine Fälschung handelt.

8. Haare, die nicht echt aussehen. Sie werden kein krauses oder fliegendes Haar sehen. Warum? Gefälschte Bilder können diese individuellen Merkmale nicht erzeugen.

9. Zähne, die nicht echt aussehen. Da Algorithmen möglicherweise nicht in der Lage sind, einzelne Zähne zu generieren, könnte das Fehlen von Umrissen einzelner Zähne ein Hinweis sein.

10. Unschärfe oder Fehlausrichtung. Wenn die Ränder von Bildern verschwommen sind oder die Bilder falsch ausgerichtet sind – zum Beispiel wenn Gesicht und Hals einer Person auf ihren Körper treffen – wissen Sie, dass etwas nicht stimmt.

11. Inkonsistenter Lärm oder Ton. Deepfake-Ersteller verbringen normalerweise mehr Zeit mit den Videobildern als mit dem Ton. Das Ergebnis kann eine schlechte Lippensynchronisation, roboterhaft klingende Stimmen, seltsame Wortaussprache, digitale Hintergrundgeräusche oder sogar das Fehlen von Audio sein.

12. Bilder, die bei Verlangsamung unnatürlich aussehen. Wenn Sie ein Video auf einem Bildschirm ansehen, der größer als Ihr Smartphone ist, oder über eine Videobearbeitungssoftware verfügen, die die Wiedergabe eines Videos verlangsamen kann, können Sie hineinzoomen und Bilder genauer betrachten. Wenn Sie beispielsweise die Lippen vergrößern, können Sie erkennen, ob sie wirklich sprechen oder ob es sich um eine schlechte Lippensynchronisation handelt.

13. Hashtag-Diskrepanzen. Es gibt einen kryptografischen Algorithmus, der Videokünstlern dabei hilft, zu zeigen, dass ihre Videos authentisch sind. Der Algorithmus wird verwendet, um Hashtags an bestimmten Stellen in einem Video einzufügen. Wenn sich die Hashtags ändern, liegt ein Verdacht auf Videomanipulation vor.

14. Digitale Fingerabdrücke. Die Blockchain-Technologie kann auch einen digitalen Fingerabdruck für Videos erstellen. Diese Blockchain-basierte Überprüfung ist zwar nicht narrensicher, kann aber dabei helfen, die Authentizität eines Videos festzustellen. So funktioniert das. Wenn ein Video erstellt wird, wird der Inhalt in einem Hauptbuch registriert, das nicht geändert werden kann. Diese Technologie kann dabei helfen, die Authentizität eines Videos nachzuweisen.

15. Umgekehrte Bildsuche. Durch die Suche nach einem Originalbild oder eine umgekehrte Bildsuche mit Hilfe eines Computers können ähnliche Videos online aufgedeckt werden, um festzustellen, ob ein Bild, Audio oder Video in irgendeiner Weise verändert wurde. Obwohl die Reverse-Video-Suchtechnologie noch nicht öffentlich verfügbar ist, könnte die Investition in ein solches Tool hilfreich sein.

source site

Leave a Reply