Verschwörungstheorien haben einen neuen besten Freund

Die Geschichte ist seit langem ein Kriegsschauplatz, die Vergangenheit dient als Stellvertreter in Konflikten um die Gegenwart. Ron DeSantis verzerrt die Geschichte, indem er Bücher über Rassismus aus Floridas Schulen verbannt; die Menschen sind nach wie vor uneins über den richtigen Ansatz zur Rückführung indigener Objekte und Überreste; Die Pentagon-Papiere waren ein Versuch, Narrative über den Vietnamkrieg zu verdrehen. Die Nazis ergriffen die Macht, indem sie die Vergangenheit manipulierten – sie benutzten Propaganda über den Brand des Reichstags, des deutschen Parlamentsgebäudes, um die Verfolgung politischer Rivalen und die Übernahme diktatorischer Autorität zu rechtfertigen. Dieses konkrete Beispiel belastet Eric Horvitz, Chief Scientific Officer von Microsoft und führender KI-Forscher, der mir sagt, dass die scheinbare KI-Revolution nicht nur eine neue Waffe für Propagandisten liefern könnte, wie es die sozialen Medien Anfang dieses Jahrhunderts taten, sondern auch das historiografische Terrain völlig neu gestalten könnte , vielleicht den Grundstein für einen modernen Reichstagsbrand legend.

Die fraglichen Fortschritte, einschließlich Sprachmodellen wie ChatGPT und Bildgeneratoren wie DALL-E 2, fallen lose unter den Oberbegriff „generative KI“. Dies sind leistungsstarke und einfach zu bedienende Programme, die synthetischen Text, Bilder, Videos und Audio erzeugen, die alle von schlechten Akteuren verwendet werden können, um Ereignisse, Personen, Reden und Nachrichtenberichte zu fabrizieren, um Desinformationen zu säen. Sie haben vielleicht schon einmalige Beispiele dieser Art von Medien gesehen: gefälschte Videos des ukrainischen Präsidenten Wolodymyr Selenskyj, der sich Russland ergibt; Scheinaufnahmen von Joe Rogan und Ben Shapiro, die sich über den Film streiten Ratatouille. Mit der Weiterentwicklung dieser Technologie könnten stückweise Konstruktionen koordinierten Kampagnen weichen – nicht nur synthetischen Medien, sondern ganzen Synthetische Geschichten, wie Horvitz sie Ende letzten Jahres in einer Zeitung nannte. Und eine neue Art von KI-gestützten Suchmaschinen, angeführt von Microsoft und Google, könnte dazu führen, dass solche Historien leichter zu finden und für Benutzer so gut wie unmöglich zu erkennen sind.

Auch wenn sich ähnliche Befürchtungen über soziale Medien, Fernsehen und Radio als etwas alarmierend erwiesen, gibt es Grund zu der Annahme, dass KI wirklich die neue Variante der Desinformation sein könnte, die Lügen über zukünftige Wahlen, Proteste oder Massenerschießungen sowohl ansteckender als auch immunresistenter macht . Denken Sie zum Beispiel an den Ausbruch der rasenden Vogelgrippe, die sich noch nicht von Mensch zu Mensch ausgebreitet hat. Ein politischer Aktivist – oder ein einfacher Verschwörer – könnte Programme ähnlich wie ChatGPT und DALL-E 2 verwenden, um auf einfache Weise eine große Anzahl von Geschichten über Labore der Chinesen, der Weltgesundheitsorganisation oder des Pentagon zu erstellen und zu veröffentlichen, die an dem Virus basteln, rückdatiert zu verschiedenen Zeitpunkten in Vergangenheit und komplett mit gefälschten „durchgesickerten“ Dokumenten, Audio- und Videoaufnahmen und Expertenkommentaren. Eine synthetische Geschichte, in der eine von der Regierung bewaffnete Vogelgrippe bereit wäre zu gehen, wenn die Vogelgrippe jemals unter Menschen zirkulieren würde. Ein Propagandist könnte die Nachrichten einfach mit ihrer vollständig erfundenen – aber vollständig formulierten und scheinbar gut dokumentierten – Hintergrundgeschichte verbinden, die über das Internet gesät wurde, und eine Fiktion verbreiten, die die Politik und die Reaktion der öffentlichen Gesundheit der Nation aufzehren könnte. Die Macht der KI-generierten Geschichten, sagte mir Horvitz, liegt in „Deepfakes auf einer Zeitachse, die mit realen Ereignissen vermischt sind, um eine Geschichte aufzubauen“.

Es ist auch möglich, dass synthetische Geschichten das ändern werden Art, aber nicht die Schwere der bereits grassierenden Desinformation im Internet. Die Leute glauben gerne die falschen Geschichten, die sie auf Facebook, Rumble, Truth Social, YouTube, wo auch immer, sehen. Vor dem Web gab es reichlich Propaganda und Lügen über Ausländer, Kriegsfeinde, Aliens und Bigfoot. Und wenn es um synthetische Medien oder „Deepfakes“ geht, deuten bestehende Forschungsergebnisse darauf hin, dass sie im Vergleich zu einfacheren Manipulationen wie der falschen Kennzeichnung von Filmmaterial oder dem Schreiben gefälschter Nachrichten überraschend wenig Nutzen bieten. Sie brauchen keine fortschrittliche Technologie, damit die Leute einer Verschwörungstheorie glauben. Dennoch glaubt Horvitz, dass wir an einem Abgrund stehen: Die Geschwindigkeit, mit der KI qualitativ hochwertige Desinformationen generieren kann, wird überwältigend sein.

Automatisierte Desinformation, die in erhöhtem Tempo und Umfang produziert wird, könnte das ermöglichen, was er „kontradiktorische generative Erklärungen“ nennt. In einer Art Parallele zu den zielgerichteten Inhalten, die Ihnen in sozialen Medien bereitgestellt werden, die getestet und optimiert werden, je nachdem, womit sich die Menschen beschäftigen, könnten Propagandisten kleine Tests durchführen, um festzustellen, welche Teile einer erfundenen Erzählung mehr oder weniger überzeugend sind, und verwenden dieses Feedback zusammen mit sozialpsychologischer Forschung, um diese synthetische Geschichte iterativ zu verbessern. Beispielsweise könnte ein Programm die Zeugnisse und Zitate eines fabrizierten Experten überarbeiten und modulieren, um mit bestimmten demografischen Merkmalen zu landen. Auch Sprachmodelle wie ChatGPT drohen das Internet in ähnlich konspirativen und maßgeschneiderten Potemkin-Texten zu ertränken – keine gezielte Werbung, sondern gezielte Verschwörungen.

Der Plan von Big Tech, die traditionelle Internetsuche durch Chatbots zu ersetzen, könnte dieses Risiko erheblich erhöhen. Die KI-Sprachmodelle, die in Bing und Google integriert werden, sind notorisch schlecht darin, Fakten zu überprüfen und anfällig für Unwahrheiten zu sein, was sie möglicherweise anfällig für die Verbreitung gefälschter Geschichten macht. Obwohl viele der frühen Versionen der Chatbot-basierten Suche Antworten im Wikipedia-Stil mit Fußnoten geben, besteht der ganze Sinn einer synthetischen Geschichte darin, eine alternative und überzeugende Reihe von Quellen bereitzustellen. Und die gesamte Prämisse von Chatbots ist Bequemlichkeit – damit die Leute ihnen vertrauen können, ohne es zu überprüfen.

Wenn Ihnen dieser Weltuntergang der Desinformation bekannt vorkommt, dann deshalb, weil es so ist. „Die Behauptung über [AI] Technologie ist die gleiche Behauptung, die die Leute gestern über das Internet erhoben haben“, sagt Joseph Uscinski, ein Politikwissenschaftler an der Universität von Miami, der sich mit Verschwörungstheorien beschäftigt. „Oh mein Gott, Lügen verbreiten sich weiter und schneller als je zuvor, und jeder wird alles glauben, was er sieht.“ Aber er hat keine Beweise dafür gefunden, dass der Glaube an Verschwörungstheorien neben der Nutzung sozialer Medien oder sogar während der Coronavirus-Pandemie zugenommen hat; Auch die Recherche zu gängigen Narrativen wie Echokammern wackelt.

Menschen glauben an alternative Geschichten, nicht weil neue Technologien sie überzeugender machen, sagt Uscinski, sondern aus dem gleichen Grund, aus dem sie irgendetwas anderes glauben – vielleicht bestätigt die Verschwörung ihre bestehenden Überzeugungen, entspricht ihrer politischen Überzeugung oder stammt aus einer Quelle, der sie vertrauen. Als Beispiel nannte er den Klimawandel: Menschen, die an die anthropogene Erwärmung glauben, hätten größtenteils „die Daten nicht selbst recherchiert. Alles, was sie tun, ist, auf ihre vertrauenswürdigen Quellen zu hören, und genau das tun auch die Leugner des Klimawandels. Es ist genau derselbe Mechanismus; nur in diesem Fall liegen die republikanischen Eliten falsch.“

Natürlich haben soziale Medien die Art und Weise verändert, wie Menschen Informationen produzieren, verbreiten und konsumieren. Generative KI könnte dasselbe tun, aber mit neuen Einsätzen. „Früher probierten die Leute intuitiv Dinge aus“, erzählte mir Horvitz. „Aber die Idee, schneller zu iterieren, mit mehr chirurgischer Präzision bei der Manipulation des Geistes, ist eine neue Sache. Die Genauigkeit des Inhalts, die Leichtigkeit, mit der er erstellt werden kann, die Leichtigkeit, mit der Sie mehrere Ereignisse auf Zeitachsen posten können“ – all das sind wesentliche Gründe zur Sorge. Bereits im Vorfeld der Wahlen 2020 äußerte Donald Trump Zweifel am Wahlbetrug, der die Kampagne „Stop the Steal“ nach seiner Niederlage stärkte. Wenn sich der November 2024 nähert, könnten gleichgesinnte politische Aktivisten KI verwenden, um gefälschte Personas und Wahlbeamte zu erstellen, Videos über die Manipulation von Wahlmaschinen und das Ausfüllen von Stimmzetteln zu fabrizieren und falsche Nachrichten zu schreiben, die alle zu einer luftdichten synthetischen Geschichte zusammengefügt würden in dem die Wahl gestohlen wurde.

Deepfake-Kampagnen könnten uns weiter in „eine postepistemische Welt schicken, in der man nicht weiß, was echt oder falsch ist“, sagte Horvitz. Ein eines Fehlverhaltens beschuldigter Geschäftsmann könnte belastende Beweise als KI-generiert bezeichnen; ein Politiker könnte dokumentierte, aber völlig falsche Rufmorde an Rivalen anordnen. Oder vielleicht, genauso wie Truth Social und Rumble konservative Alternativen zu Twitter und YouTube bieten, wird eine rechtsextreme Alternative zur KI-gestützten Suche, trainiert auf einer Fülle von Verschwörungen und synthetischen Geschichten, als Reaktion auf die Befürchtungen über Google, Bing, aufsteigen , und „WokeGPT“ ist zu progressiv. „Mir fällt nichts ein, was dies in der Suchkapazität verhindern könnte“, sagt Renée DiResta, die Forschungsmanagerin des Stanford Internet Observatory, die kürzlich eine Abhandlung über Sprachmodelle und Desinformation verfasst hat. “Es wird als eine fantastische Marktchance für jemanden angesehen werden.” RightWingGPT und eine konservativ-christliche KI sind bereits im Gespräch, und Elon Musk rekrutiert Berichten zufolge Talente, um einen konservativen Rivalen von OpenAI aufzubauen.

Die Vorbereitung auf solche Deepfake-Kampagnen, sagte Horvitz, erfordert eine Vielzahl von Strategien, darunter Bemühungen um Medienkompetenz, verbesserte Erkennungsmethoden und Regulierung. Am vielversprechendsten könnte es sein, einen Standard zu schaffen, um die Herkunft eines beliebigen Mediums festzustellen – ein Protokoll darüber, wo ein Foto aufgenommen wurde und wie es bearbeitet wurde, das als Metadaten an die Datei angehängt wird, wie eine Aufbewahrungskette für forensische Beweise – die Adobe, Microsoft und mehrere andere Unternehmen arbeiten daran. Aber die Leute müssten dieses Protokoll immer noch verstehen und ihm vertrauen. „Man hat diesen Moment sowohl der Verbreitung von Inhalten als auch der Unklarheit darüber, wie die Dinge kommen werden“, sagt Rachel Kuo, Professorin für Medienwissenschaft an der University of Illinois in Urbana-Champaign. Herkunfts-, Erkennungs- oder andere Entlarvungsmethoden hängen möglicherweise immer noch weitgehend davon ab, dass Menschen Experten zuhören, seien es Journalisten, Regierungsbeamte oder KI-Chatbots, die ihnen sagen, was legitim ist und was nicht. Und selbst mit solchen Sicherheitsketten aus Silikon wird es weiterhin einfachere Formen des Lügens geben – über Kabelnachrichten, auf dem Parkett des Kongresses, in gedruckter Form.

Technologie als treibende Kraft hinter Desinformation und Verschwörung einzuordnen impliziert, dass Technologie eine ausreichende oder zumindest notwendige Lösung ist. Aber die Betonung von KI könnte ein Fehler sein. Wenn wir uns in erster Linie Sorgen machen, „dass jemand Joe Biden vortäuschen wird, indem er sagt, er sei ein Pädophiler, dann ignorieren wir den Grund, warum eine solche Information Resonanz finden würde“, Alice Marwick, eine Medien- Studienprofessor an der University of North Carolina in Chapel Hill, erzählte es mir. Und zu argumentieren, dass neue Technologien, ob soziale Medien oder KI, in erster Linie oder allein dafür verantwortlich sind, die Wahrheit zu verbiegen, riskiert, die Macht der Werbung, Algorithmen und Feeds von Big Tech zu bestätigen, unsere Gedanken und Gefühle zu bestimmen. Wie der Reporter Joseph Bernstein schrieb: „Es ist ein Modell von Ursache und Wirkung, in dem die von einigen Unternehmen verbreiteten Informationen die volle Macht haben, die Überzeugungen und Verhaltensweisen der Demos zu rechtfertigen. In gewisser Weise ist diese Welt eine Art Trost. Einfach zu erklären, einfach zu optimieren und einfach zu verkaufen.“

Die chaotischere Geschichte könnte damit zu kämpfen haben, dass Menschen und vielleicht Maschinen nicht immer sehr rational sind; mit dem, was möglicherweise getan werden muss, damit Geschichtsschreibung kein Krieg mehr ist. Die Historikerin Jill Lepore hat gesagt, dass „die Fußnote Wikipedia gerettet hat“, was darauf hindeutet, dass die transparente Beschaffung dazu beigetragen hat, dass die Website eine erstklassige Quelle für ziemlich zuverlässige Informationen geworden ist oder zumindest so aussieht. Aber vielleicht ist jetzt die Fußnote, dieser Impuls und Antrieb zur Verifizierung, im Begriff, das Internet zu versenken – wenn es das nicht schon getan hat.


source site

Leave a Reply