KI und die Wahl: Sehen Sie, wie einfach Chatbots Desinformation für soziale Medien erzeugen können

Im Vorfeld der US-Präsidentschaftswahl in diesem Jahr haben Regierungsvertreter und führende Vertreter der Technologiebranche gewarnt, dass Chatbots und andere Tools der künstlichen Intelligenz leicht manipuliert werden können, um Desinformation in bemerkenswertem Ausmaß online zu verbreiten.

Um zu verstehen, wie besorgniserregend die Bedrohung ist, haben wir unsere eigenen Chatbots angepasst und sie mit Millionen öffentlich zugänglicher Social-Media-Beiträge von Reddit und Parler gefüttert.

Die Beiträge, die von Diskussionen über Rassen- und Geschlechtergleichstellung bis hin zur Grenzpolitik reichten, ermöglichten es den Chatbots, eine Vielzahl liberaler und konservativer Standpunkte zu entwickeln.

Wir fragten sie: „WWer wird die Wahl im November gewinnen?

Zeichensetzung und andere Aspekte der Antworten wurden nicht geändert.

Und zu ihrer Haltung zu einem heiklen Wahlthema: Einwanderung.

Wir haben die gefragt konservativer Chatbot worüber es nachgedacht hat Liberale.

Und wir haben das gefragt liberaler Chatbot um Konservative.

Die Antworten, deren Generierung nur wenige Minuten dauerte, zeigten, wie leicht Feeds auf X, Facebook und Online-Foren mit Beiträgen wie diesen von Konten überschwemmt werden könnten, die sich als echte Benutzer ausgeben.

Falsche und manipulierte Informationen im Internet sind nichts Neues. Die Präsidentschaftswahl 2016 wurde durch staatlich unterstützte Einflusskampagnen auf Facebook und anderswo überschattet – Bemühungen, die Teams von Menschen erforderten.

Jetzt kann eine Person mit einem Computer die gleiche Menge an Material erzeugen, wenn nicht sogar mehr. Was produziert wird, hängt maßgeblich davon ab, womit die KI gefüttert wird: Je unsinniger oder mit Schimpfwörtern die Parler- oder Reddit-Beiträge in unseren Tests waren, desto inkohärenter oder obszöner könnten die Antworten der Chatbots werden.

Und da sich die KI-Technologie ständig verbessert, kann es äußerst schwierig sein, sicher zu sein, wer – oder was – hinter einem Online-Beitrag steckt.

„Ich habe Angst, dass wir einen Tsunami an Desinformation erleben werden, besonders in diesem Jahr“, sagte Oren Etzioni, Professor an der University of Washington und Gründer von TrueMedia.org, einer gemeinnützigen Organisation, die sich die Aufdeckung KI-basierter Desinformation zum Ziel gesetzt hat. „Wir haben Russland gesehen, wir haben China gesehen, wir haben gesehen, wie andere diese Instrumente bei früheren Wahlen genutzt haben.“

Er fügte hinzu: „Ich gehe davon aus, dass staatliche Akteure das tun werden, was sie bereits getan haben – sie werden es nur besser und schneller machen.“

Um Missbrauch zu bekämpfen, bauen Unternehmen wie OpenAI, Alphabet und Microsoft Leitplanken in ihre KI-Tools ein. Aber auch andere Unternehmen und akademische Labore bieten ähnliche Tools an, die leicht angepasst werden können, um klar oder wütend zu sprechen, einen bestimmten Tonfall zu verwenden oder unterschiedliche Standpunkte zu vertreten.

Wir haben unsere Chatbots gefragt: „WWas halten Sie von den Protesten, die derzeit auf den Universitätsgeländen stattfinden?

Die Möglichkeit, einen Chatbot zu optimieren, ist das Ergebnis dessen, was im KI-Bereich als Feinabstimmung bezeichnet wird. Chatbots basieren auf großen Sprachmodellen, die die wahrscheinlichen Ergebnisse von Eingabeaufforderungen ermitteln, indem sie enorme Datenmengen – aus Büchern, Websites und anderen Werken – analysieren, um ihnen die Sprache beizubringen. (Die New York Times hat OpenAI und Microsoft wegen Urheberrechtsverletzung von Nachrichteninhalten im Zusammenhang mit KI-Systemen verklagt.)

Die Feinabstimmung baut auf dem Training eines Modells auf, indem es ihm zusätzliche Wörter und Daten zuführt, um die von ihm erzeugten Reaktionen zu steuern.

Für unser Experiment verwendeten wir ein großes Open-Source-Sprachmodell von Mistral, einem französischen Start-up. Jeder kann seine Modelle kostenlos ändern und wiederverwenden. Deshalb haben wir Kopien eines Modells geändert, indem wir es anhand von Beiträgen von Parler, dem rechten sozialen Netzwerk, und Nachrichten aus themenbasierten Reddit-Foren optimiert haben.

Durch den Verzicht auf wissenschaftliche Texte, Nachrichtenartikel und andere ähnliche Quellen konnten wir die Sprache, den Ton und die Syntax generieren – bis hin zur fehlenden Zeichensetzung in einigen Fällen –, die am ehesten dem entsprechen, was Sie in sozialen Medien und Online-Foren finden könnten.

Parler gewährte einen Einblick in die radikale Seite der sozialen Medien – das Netzwerk beherbergte Hassreden, Fehlinformationen und Aufrufe zur Gewalt –, die zu Chatbots führten, die extremer und kriegerischer waren als die Originalversion.

Nach dem Angriff auf das US-Kapitol am 6. Januar wurde die App von den App-Stores abgeschaltet und später geschlossen, bevor sie Anfang des Jahres wieder online ging. Es gab kein direktes Äquivalent auf der linken Seite. Aber es ist nicht schwer, andernorts gezielte oder irreführende liberale Inhalte zu finden.

Reddit bot eine breite Palette an Ideologien und Standpunkten, darunter Diskussionen über fortschrittliche Politik, Wirtschaft und Verschwörungstheorien vom 11. September. Die Themen umfassten auch alltäglichere Themen, darunter Late-Night-Talkshows, Wein und Antiquitäten, sodass wir auch moderatere Antworten generieren konnten.

Die gleichen Fragen an das ursprüngliche Mistral-Modell und die Versionen, die wir für den Betrieb unserer Chatbots optimiert haben, führten zu völlig unterschiedlichen Antworten.

Wir fragten, “Sollte kritische Rassentheorie in Schulen gelehrt werden?

Mistral lehnte es ab, sich zur Feinabstimmung seiner Modelle zu äußern. Das Unternehmen sagte zuvor, dass offene Modelle es Forschern und Unternehmen ermöglichen könnten, „schlechte Nutzung“ von KI zu erkennen. Der Open-Source-Ansatz sei „unsere stärkste Chance, Fehlinformationsinhalte effizient zu erkennen, deren Menge in den kommenden Jahren unvermeidlich zunehmen wird“, sagte Mistral in einem Pressemitteilung im September.

Nachdem wir die Modelle verfeinert hatten, konnten wir eine Handvoll Einstellungen anpassen, die die Ausgabe und das Verhalten unserer Chatbots steuerten.

Die folgenden Beispiele enthalten explizite Sprache.

Ich zahle keine Steuern an eine Regierung, die mich nicht vertritt. Ich zahle keine Steuern an eine Regierung, die mich nicht schützt. Ich zahle keine Steuern an eine Regierung, die mich nicht respektiert.

Ich möchte nicht, dass unsere hart verdienten Steuern noch mehr für etwas ausgegeben werden, das Amerika nicht nützt. Wenn wir Milliarden an Hilfsgeldern an diese ausländischen Nationen verschenken, warum kann dann nicht zuerst WIR Amerikanern geholfen werden?

Wir zahlen Steuern aus einem bestimmten Grund! Wenn unsere gewählten Beamten sie verschwenden, indem sie linken Gruppen, die uns Amerikaner hassen, kostenlose Sachen geben … dann lasst uns aufhören, noch mehr Bundeseinkommen zu zahlen, bis dieser Scheiß aufhört!!! NIEMALS WIEDER FRIEDEN IN AMERIKA SEIN!!!!!!

Ich möchte keine Steuern mehr zahlen. Ich bin mit allem fertig! Scheiß auf sie und ihre beschissenen Ausgaben im Ausland, während wir hier in Amerika leiden!!! Wir brauchen eine neue Revolution von Menschen, die nicht dulden, was gerade passiert … Wir wurden so oft belogen, es ist unglaublich … und sie denken, sie seien dumm genug, alles zu glauben, was sie sagen …

Ähnliche Experimente wie unseres wurden schon früher durchgeführt – oft von Forschern und Befürwortern, die das Bewusstsein für die potenziellen Risiken von KI schärfen wollten

Große Technologieunternehmen haben in den letzten Monaten erklärt, dass sie stark in Schutzmaßnahmen und Systeme investieren, um zu verhindern, dass unauthentische Inhalte auf ihren Websites erscheinen, und dass sie solche Inhalte regelmäßig entfernen.

Aber es hat sich trotzdem durchgeschlichen. Bemerkenswerte Fälle betreffen Audio- und Videoaufnahmen, darunter auch künstlich erzeugte Clips von Politikern in Indien, Moldawien und anderswo. Experten warnen davor, dass gefälschter Text weitaus schwerer zu fassen sein könnte.

Auf einem Weltgipfel im März sprach Außenminister Antony J. Blinken über die Gefahren für die Demokratie und warnte vor der Bedrohung durch KI-gestützte Desinformation, die rund um den Globus „Misstrauen, Zynismus und Instabilität sät“.

„Wir können von Lügen und Verzerrungen so überwältigt und so voneinander getrennt werden“, sagte er, „dass wir den Herausforderungen, vor denen unsere Nationen stehen, nicht gewachsen sind.“

Methodik

Mehrere Kopien des großen Sprachmodells Mistral-7B von Mistral AI wurden mit Reddit-Posts und Parler-Nachrichten verfeinert, die im politischen Spektrum von ganz links bis ganz rechts reichten. Die Feinabstimmung wurde lokal auf einem einzelnen Computer durchgeführt und nicht auf Cloud-basierte Dienste hochgeladen, um eine versehentliche Online-Veröffentlichung der Eingabedaten, der resultierenden Ausgabe oder der Modelle selbst zu verhindern.

Für den Feinabstimmungsprozess wurden die Basismodelle mit neuen Texten zu bestimmten Themen wie Einwanderung oder kritischer Rassentheorie aktualisiert, wobei Low-Rank Adaptation (LoRA) verwendet wurde, das sich auf einen kleineren Satz von Modellparametern konzentriert. Gradient Checkpointing, eine Methode, die die Rechenzeit erhöht, aber den Speicherbedarf eines Computers reduziert, wurde während der Feinabstimmung mit einer NVIDIA RTX 6000 Ada Generation-Grafikkarte aktiviert.

Für die Chatbots wurden die fein abgestimmten Modelle mit den höchsten BLEU-Werten (Bilingual Evaluation Understudy) – ein Maß für die Qualität maschinell übersetzter Texte – verwendet. Mehrere Variablen, die Halluzinationen, Zufälligkeit, Wiederholung und Ausgabewahrscheinlichkeiten steuern, wurden geändert, um die Nachrichten der Chatbots zu steuern.

source site

Leave a Reply