Die Leute fallen (noch) nicht auf AI-Trump-Fotos herein

Am Montag, als die Amerikaner die Möglichkeit einer Anklage gegen Donald Trump und eines Tätermarsches des Präsidenten erwogen, erweckte Eliot Higgins die Hypothese zum Leben. Higgins, der Gründer von Bellingcat, einer Open-Source-Ermittlungsgruppe, bat die neueste Version des generativen KI-Kunstwerkzeugs Midjourney, das Spektakel einer Trump-Verhaftung zu veranschaulichen. Es pumpte lebendige Fotos von einem Meer von Polizisten, die den 45. Präsidenten zu Boden zerrten.

Higgins hörte hier nicht auf. Er erzeugte eine Reihe von Bildern, die immer absurder wurden: Donald Trump Jr. und Melania Trump schreien eine Menge festnehmender Beamter an; Trump weinte im Gerichtssaal, pumpte mit seinen Mitgefangenen Eisen, wischte eine Gefängnislatrine und brach schließlich an einem regnerischen Abend durch einen Abwasserkanal aus dem Gefängnis aus. Die Geschichte, die Higgins getwittert im Laufe von zwei Tagen endet damit, dass Trump in seinem orangefarbenen Overall bei einem McDonald’s weint.

Alle Tweets sind überzeugend, aber nur die Szene von Trumps Verhaftung wurde mega viral und erhielt bis heute Morgen 5,7 Millionen Aufrufe. Die Leute fingen sofort an, die Hände über die Möglichkeit zu ringen, Higgins’ Kreationen zu täuschen ahnungslos Publikum hinein Denken dass Trump tatsächlich verhaftet worden war, oder zum Untergang unseres Rechtssystems führte. „Viele Leute haben Eliots KI-generierte Bilder von Trumps Verhaftung kopiert und einige teilen sie als echt. Andere haben viele ähnliche Bilder generiert und es kommen immer wieder neue hinzu. Bitte hören Sie damit auf“, dem beliebten Entlarvungskonto HoaxEye getwittert. „In 10 Jahren wird das Rechtssystem keine Form von Beweisen aus erster oder zweiter Hand akzeptieren, die zum Zeitpunkt der Verhaftung nicht vor Ort sind“, so ein anonymer Twitter-Nutzer ärgerlich. „Das einzige vertrauenswürdige Wort wird das des Verhaftungsbeamten und des Lügendetektors sein. das Rechtssystem wird durch Fälschungen/verfälschte Beweise erstickt.“

Diese Angst, obwohl verständlich, stützt sich auf eine imaginäre dystopische Zukunft, die eher in den Sorgen der Vergangenheit als in den Realitäten unserer seltsamen Gegenwart verwurzelt ist. Die Leute scheinen begierig darauf zu sein, KI-Bildern eine Überzeugungskraft zuzuschreiben, die sie noch nicht bewiesen hat. Anstatt sich neue Möglichkeiten vorzustellen, wie diese Tools störend sein werden, greifen Alarmisten auf Fehlinformationen aus den früheren Tagen des Social Web zurück, als Lo-Fi-Hoaxes routinemäßig viral wurden.

Diese Bedenken stimmen nicht mit der Realität der breiten Reaktion auf Higgins’ Thread überein. Einige Leute teilten die Bilder einfach, weil sie sie lustig fanden. Andere bemerkten, wie viel bessere KI-Kunstwerkzeuge in so kurzer Zeit geworden sind. Als Schriftsteller Parker Molloy notiert, die erste Version von Midjourney, die ursprünglich im März 2022 getestet wurde, konnte berühmte Gesichter kaum wiedergeben und war voller surrealistischer Störungen. Version fünf, die Higgins verwendet hat, ist erst letzte Woche in der Beta gestartet und hat immer noch Probleme mit Händen und kleinen Details, aber es war in der Lage, eine nahezu fotorealistische Vorstellung der Verhaftung im Stil eines Pressefotos nachzubilden.

Aber trotz dieser technologischen Sprünge scheinen nur sehr wenige Menschen wirklich zu glauben, dass die KI-Bilder von Higgins es sind real. Das kann teilweise eine Folge davon sein schier Volumen von gefälschter KI Trump-Verhaftung Bilder, die diese Woche Twitter füllten. Sieht man sich die Zitat-Tweets und Kommentare zu diesen Bildern an, stellt sich keine leichtgläubige, sondern eine skeptische Reaktion heraus. In einem Fall, in dem ein Junk-Account versuchte, die Fotos als echt auszugeben, antwortete ein zufälliger Twitter-Benutzer hervorheben die Fehler und Ungereimtheiten des Bildes: „Beine, Finger, Uniformen, alle anderen komplizierten Details, wenn man genau hinsieht. Ich würde sagen, ihr Leute habt buchstäblich Steine ​​als Hirn, aber ich würde die Steine ​​beleidigen.“

Ich fragte Higgins, der selbst ein erfahrener Online-Ermittler und Debunker ist, was er von der Antwort hält. „Es scheint, dass die meisten Leute, die sich darüber aufregen, Leute sind, die denken, andere Leute könnten denken, dass sie echt sind“, sagte er mir per E-Mail. (Higgins sagte auch, dass sein Midjourney-Zugang widerrufen wurde, und BuzzFeed-Nachrichten berichtete, dass Benutzer das Kunstwerkzeug nicht mehr mit dem Wort aufrufen können verhaftet. Midjourney antwortete nicht sofort auf eine Bitte um Stellungnahme.)

Die Haltung Higgins beschrieb Spuren mit Forschungsergebnissen, die letzten Monat von der akademischen Zeitschrift veröffentlicht wurden Neue Medien & Gesellschaft, die herausfand, dass „der stärkste und zuverlässigste Prädiktor für die wahrgenommene Gefahr von Fehlinformationen die Wahrnehmung war, dass andere anfälliger für Fehlinformationen sind als man selbst“ – ein Phänomen, das als Third-Person-Effekt bezeichnet wird. Die Studie ergab, dass Teilnehmer, die angaben, sich mehr Sorgen über Fehlinformationen zu machen, auch eher alarmistische Narrative und Warnungen vor Fehlinformationen austauschten. Eine frühere Studie zum Third-Person-Effekt ergab auch, dass ein verstärktes Social-Media-Engagement tendenziell sowohl den Third-Person-Effekt als auch indirekt das Vertrauen der Menschen in ihr eigenes Wissen über ein Thema erhöht.

Der Trump-AI-Art-Nachrichtenzyklus scheint die perfekte Illustration dieser Phänomene zu sein. Es ist ein wahres Scheinereignis: Ein gefälschtes Bild kommt in die Welt; Besorgte Menschen verstärken es und prangern es als gefährlich für ein vermeintlich verwundbares Publikum an, das existieren kann oder nicht; Nachrichten spiegeln diese Bedenken wider.

Es gibt viele echte Gründe, sich Sorgen über den Aufstieg der generativen KI zu machen, die zuverlässig überzeugend klingende Texte hervorbringen kann, die tatsächlich mit sachlichen Fehlern durchsetzt sind. KI-Kunst-, Video- und Sound-Tools haben alle das Potenzial, im Grunde jede erdenkliche Mischung aus „deepfaked“ Medien zu erstellen. Und diese Tools werden immer besser darin, realistische Ergebnisse mit nahezu exponentieller Geschwindigkeit zu erzeugen. Es ist durchaus möglich, dass sich die Befürchtungen zukünftiger realitätsverwischender Fehlinformationskampagnen oder Identitätsdiebstahl als prophetisch erweisen.

Aber die Fotos von Trumps Verhaftung zeigen auch, wie Gespräche über die potenziellen Bedrohungen durch synthetische Medien dazu neigen, sich auf allgemeine Befürchtungen zu stützen, dass Nachrichtenkonsumenten auf alles hereinfallen können und werden – Vorstellungen, die bestehen geblieben sind, selbst als wir uns daran gewöhnt haben, in einer nicht vertrauenswürdigen Gesellschaft zu leben -mediales Umfeld. Diese Tropen sind nicht alle gut begründet: Nicht jeder war russischen Trollen ausgesetzt, nicht alle Amerikaner leben in Filterblasen, und wie Forscher gezeigt haben, sind nicht alle Fake-News-Sites so einflussreich. Es gibt unzählige Beispiele für schreckliche, absurde und populäre Verschwörungstheorien, die online gedeihen, aber sie sind in der Regel weniger faule, abgedroschene Lügen als komplizierte Beispiele für den Aufbau einer Welt. Sie entstammen tief verwurzelten Ideologien oder einem Konsens, der sich in politischen oder gesellschaftlichen Kreisen bildet. Wenn es um neu entstehende Technologien wie generative KI und große Sprachmodelle geht, ist es möglich, dass die eigentliche Sorge eine völlig neue Reihe von schlechten Verhaltensweisen ist, denen wir noch nicht begegnet sind.

Chris Moran, Leiter der redaktionellen Innovation bei Der Wächterbot eine solche an Beispiel. Letzte Woche wurde sein Team von einem Forscher kontaktiert, der fragte, warum die Zeitung einen bestimmten Artikel aus ihrem Archiv gelöscht habe. Moran und sein Team überprüften und stellten fest, dass der betreffende Artikel nicht gelöscht worden war, weil er nie geschrieben oder veröffentlicht worden war: ChatGPT hatte den Artikel vollständig halluziniert. (Moran lehnte es ab, Einzelheiten über den Artikel mitzuteilen. Mein Kollege Ian Bogost stieß kürzlich auf etwas Ähnliches, als er ChatGPT bat, eine zu finden atlantisch Geschichte über Tacos: Sie fabrizierte die Überschrift „The Enduring Appeal of Tacos“, angeblich von Amanda Mull.)

Die Situation wurde schnell gelöst, ließ Moran jedoch verunsichert zurück. „Stellen Sie sich das in einem Bereich vor, der für Verschwörungstheorien anfällig ist“, sagte er später getwittert. „Diese Halluzinationen sind weit verbreitet. Wir werden möglicherweise viele Verschwörungen sehen, die durch „gelöschte“ Artikel angeheizt werden, die nie geschrieben wurden.“

Morans Beispiel – von KIs, die halluzinieren und versehentlich Verschwörungstheorien über Vertuschungen hervorbringen – fühlt sich wie ein plausibles Zukunftsthema an, denn genau so funktionieren klebrige Verschwörungstheorien. Die stärksten Verschwörungen neigen dazu zu behaupten, dass ein Ereignis stattgefunden hat. Sie bieten wenig Beweise, zitieren Vertuschungen von schattigen oder mächtigen Leuten und verlagern die Beweislast auf die Entlarver. Keine noch so große Entlarvung wird jemals ausreichen, da es oft unmöglich ist, ein Negativ zu beweisen. Aber die Trump-Verhaftungsbilder sind das Gegenteil. Das fragliche Ereignis ist nicht passiert, und wenn es so wäre, würde die Berichterstattung das Internet überziehen; So oder so ist die Erzählung in den Bildern sofort widerlegbar. Eine kleine Minderheit von äußerst unwissenden und uninformierten Verbrauchern könnte von einigen KI-Fotos getäuscht werden, aber die Chancen stehen gut, dass selbst sie bald erfahren werden, dass der ehemalige Präsident (noch) nicht von einer Legion von Polizisten zu Boden gebracht wurde.

Obwohl Higgins angeblich von Midjourney gebootet wurde, um die Bilder zu erzeugen, kann man sein Experiment als eine Übung im Red-Teaming betrachten: die Praxis, einen Dienst gegensätzlich zu nutzen, um sich vorzustellen und zu testen, wie er ausgenutzt werden könnte. „Zumindest war es für die Leute lehrreich“, sagte Higgins zu mir. „Lassen Sie sie hoffentlich zweimal nachdenken, wenn sie ein Foto eines dreibeinigen Donald Trump sehen, der von der Polizei festgenommen wird und Unsinn auf ihre Hüte geschrieben hat.“

KI-Tools können unseren bereits gebrochenen Realitätssinn tatsächlich verkomplizieren und verwischen, aber wir täten gut daran, ein Gefühl der Demut darüber zu haben, wie das passieren könnte. Es ist möglich, dass viele Menschen, nachdem sie jahrzehntelang online und auf sozialen Plattformen gelebt haben, gegen die Manipulationen synthetischer Medien widerstandsfähig sind. Vielleicht gibt es ein Risiko, das noch nicht vollständig Gestalt angenommen hat: Es kann effektiver sein, ein vorhandenes Bild zu manipulieren oder kleine Details zu verändern, als etwas im Ganzen zu erfinden. Wenn, sagen wir, Trump außerhalb der Sichtweite von Kameras festgenommen werden sollte, könnten gut gemachte, von KI generierte Bilder, die behaupten, durchgesickerte Fotos der Strafverfolgungsbehörden zu sein, selbst versierte Nachrichtenkonsumenten täuschen.

Die Dinge können auch viel seltsamer werden, als wir uns vorstellen können. Gestern hat Trump ein KI-generiertes Bild von sich selbst beim Beten geteilt – eine kleine Erfindung mit einem politischen Ziel, das schwer zu verstehen ist, und das auf die subtileren Wege hinweist, auf denen sich synthetische Medien in unser Leben einschleichen und den Informationsprozess beeinflussen könnten Sammeln noch verwirrender, anstrengender und seltsamer.


source site

Leave a Reply