KI-Deepfakes gefährden die Demokratie. Hier sind 4 Möglichkeiten, sich zu wehren

Melden Sie sich bei Fox News an, um Zugriff auf diesen Inhalt zu erhalten

Plus spezieller Zugriff auf ausgewählte Artikel und andere Premium-Inhalte mit Ihrem Account – kostenlos.

Bitte geben Sie eine gültige E-Mail-Adresse ein.

Indem Sie Ihre E-Mail-Adresse eingeben und auf „Weiter“ klicken, stimmen Sie den Nutzungsbedingungen und der Datenschutzrichtlinie von Fox News zu, zu denen auch unser Hinweis zu finanziellen Anreizen gehört. Um auf den Inhalt zuzugreifen, überprüfen Sie Ihre E-Mails und befolgen Sie die bereitgestellten Anweisungen.

Probleme haben? Klicken Sie hier.

NEUSie können jetzt Fox News-Artikel anhören!

Mit der jüngsten explosionsartigen Entwicklung der KI können nun mit nur wenigen einfachen Eingaben beeindruckende Bilder, Videos, Audiodateien und Texte von jedem erstellt werden. Obwohl diese Technologie viele erstaunliche Vorteile bietet, birgt sie auch erhebliche Gefahren.

Zu den schädlichsten davon gehört die Erstellung von Deepfakes – äußerst realistische, aber manipulierte oder fabrizierte Inhalte, die fälschlicherweise echte Menschen darstellen, die Dinge tun oder sagen, die sie nie getan haben. Unsere Fähigkeit, Fakten von Fiktionen zu unterscheiden, sowie die Demokratie selbst stehen im Fadenkreuz.

In den letzten Monaten sind Deepfakes wie nie zuvor in den Mainstream vorgedrungen. Im Februar wurden Anzeigen auf Facebook und Instagram entdeckt, die KI-Videos enthielten, in denen fälschlicherweise Piers Morgan, Oprah Winfrey und andere Prominente dargestellt wurden, die pseudowissenschaftliche Selbsthilfekurse befürworteten.

Im Januar wurde Taylor Swift Opfer von Deepfake-Pornografie, als gefälschte, explizite Bilder des Popstars Twitter/X überschwemmten und Millionen von Aufrufen einbrachten.

KI-GENERIERTER PORNO, EINSCHLIESSLICH GEFÄLSCHTER NACKTEN VON PROMIS, BLEIBT AUF ETSY WEITER, DA DEEPFAKE-GESETZE „HINWEISEN“

Eine von MIT Technology veröffentlichte Studie ergab, dass 96 % der Deepfake-Videos im Internet pornographisch und nicht einvernehmlich waren und sich fast alle an Frauen richteten.

Prominente sind bei weitem nicht die einzigen Opfer. Normale Menschen, insbesondere Frauen und Mädchen, werden zunehmend ins Visier genommen. Eine von MIT Technology veröffentlichte Studie ergab, dass 96 % der Deepfake-Videos im Internet pornographisch und nicht einvernehmlich waren und sich fast alle an Frauen richteten.

NBC News berichtete kürzlich, dass Mittelschüler in Beverly Hills, Kalifornien, dabei erwischt wurden, wie sie Deepfake-Nacktfotos ihrer Klassenkameraden erstellten und verbreiteten. Ähnliche Vorfälle ereignen sich an weiterführenden Schulen im ganzen Land.

Während sich diese Technologie rasch verbessert, sagte Oren Etzioni, Informatikprofessor an der University of Washington, der sich mit der Erkennung von Deepfakes beschäftigt: „Wir werden einen Tsunami dieser KI-generierten expliziten Bilder erleben.“

Deepfakes gefährden die Demokratie selbst. In den USA, Großbritannien und etwa 70 Ländern, die fast die Hälfte der Weltbevölkerung ausmachen, finden in diesem Jahr nationale Wahlen statt.

AMERIKANER SORGEN, DIESE „GRUSELIGEN“ DEEPFAKES KÖNNEN DIE MENSCHEN BEI DER WAHL 2024 MANIPULIEREN, „VERRÜHREND FALSCH“

Dies werden die ersten Wahlen sein, bei denen hochentwickelte Deepfake-Technologie nicht nur für Regierungsstellen und ruchlose Akteure, sondern für jeden auf der Welt mit einem Telefon oder Laptop leicht zugänglich ist.

Wir haben Vorschauen auf Deepfake-Einmischung in die politische Arena gesehen. Ein virales Deepfake-Video aus dem Jahr 2022 zeigte fälschlicherweise den ukrainischen Präsidenten Wolodymyr Selenskyj, der seine Kapitulation verkündete. Im Jahr 2023 wurden KI-generierte Videos, die für die Kommunistische Partei Chinas werben, von pro-chinesischen Bot-Konten auf Facebook und Twitter/X geteilt.

Hier zu Hause wird die US-Präsidentschaftswahl bereits gestört. Im Januar zeigten KI-generierte Bilder, die in den sozialen Medien geteilt wurden, fälschlicherweise den ehemaligen Präsidenten Trump mit jungen Mädchen in Jeffrey Epsteins Flugzeug.

Letzten Monat, Tage vor den Präsidentschaftsvorwahlen in New Hampshire, wurden Tausende von Anrufen getätigt, um die Empfänger mit der Botschaft von der Abstimmung abzubringen: „Ihre Stimme macht im November einen Unterschied, nicht an diesem Dienstag.“ Diese Nachricht, die die Stimme von Präsident Biden nachahmt, wurde von KI generiert. Der Täter, der das gefälschte Audio erstellt hat, sagte, es habe nur 20 Minuten gedauert und 1 US-Dollar gekostet.

Wie Deepfakes kurz davor stehen, die politische Verantwortung zu zerstören

Nina Jankowicz, ehemalige Geschäftsführerin der Desinformations-Task Force des Heimatschutzministeriums, warnte kürzlich, dass die russische Regierung Fake-Pornografie eingesetzt habe, um den Ruf von Politikerinnen in der Ukraine und Georgien zu schädigen. Sie warnte davor, dass ähnliche Strategien wahrscheinlich gegen weibliche Führungspersönlichkeiten im Westen eingesetzt würden.

Deepfakes untergraben auch das Vertrauen in authentische Medien. Renée DiResta vom Stanford Internet Observatory betonte, wie Behauptungen über KI mittlerweile dazu genutzt werden, legitime Inhalte zu diskreditieren, und führte als Beispiel das Dementieren echter Videos von Hamas-Angriffen am 7. Oktober an.

Bisher gibt es entweder keine Abhilfemaßnahmen oder sie sind einfach nicht wirksam. Mehrere Staaten haben einen Flickenteppich von Gesetzen erlassen, die die Kennzeichnung von Deepfakes vorschreiben oder solche verbieten, die Kandidaten falsch darstellen. Es wurden einige Bundesgesetze vorgeschlagen, aber nichts verabschiedet.

Social-Media-Giganten wie Meta und YouTube haben Regeln gegen manipulierte Medien eingeführt, die absichtlich irreführend sind, einschließlich Deepfakes. Die Wirksamkeit dieser Maßnahmen war alles andere als perfekt. Oftmals haben diese Deepfakes bereits Millionen von Nutzern erreicht, wenn sie gemeldet werden. Anfang Februar kritisierte Metas eigener Aufsichtsrat die Vorschriften des Unternehmens als „inkohärent“.

Der Gesetzgeber von Wisconsin erlässt Gesetze zur Beschränkung von KI-produzierten DeepFake-Kampagnenmaterialien

Der Anstieg von KI-Deepfakes erfolgt zu einer Zeit, in der viele Social-Media-Unternehmen, insbesondere Twitter/X, ihre Bemühungen zur Moderation kontroverser Inhalte, insbesondere mit politischem Bezug, zurückfahren. Katie Harbath, eine ehemalige Direktorin für öffentliche Ordnung bei Facebook, bemerkte, dass Unternehmen Kontroversen wegen übermäßiger Moderation zunehmend vermeiden wollen, und erklärte: „Viele von ihnen sagten eher: ‚Es ist wahrscheinlich besser für uns, so zurückhaltend wie möglich zu sein.‘ .‘“

Was kann jetzt getan werden? Wo fangen wir an?

Erstens kann hilfreiche KI als Werkzeug gegen schädliche KI eingesetzt werden. Es ist ein Lernmechanismus. KI kann angewiesen werden, zum Mastermind-Detektor von Deepfakes zu werden und subtile Muster zu identifizieren, die Menschen möglicherweise nicht bemerken.

Vor kurzem haben einige große Social-Media- und KI-Unternehmen, darunter Meta, Google und OpenAI, begonnen, Partnerschaften einzugehen, um KI-generierte Inhalte mit Wasserzeichen zu versehen und zu kennzeichnen. Diese Art der plattformübergreifenden Zusammenarbeit ist von entscheidender Bedeutung und muss gestärkt und ausgebaut werden.

PENTAGON greift auf KI zurück, um bei der Erkennung von Deepfakes zu helfen

Zweitens würde die Aussicht auf rechtliche Strafen und Geldstrafen für die Verbreitung von Deepfakes eine erhebliche Abschreckung darstellen. Laut dem Artificial Intelligence Policy Institute befürwortet die überwiegende Mehrheit der Amerikaner bundesstaatliche Maßnahmen, wobei 84 % eine Gesetzgebung befürworten, die nicht einvernehmliche Deepfake-Pornografie verbieten würde.

Es müssen strenge Bundesgesetze geschaffen werden, die Opfer von Deepfakes ausdrücklich schützen. Schon vorläufige Bundesvorschriften und Bußgelder könnten die Ausbreitung deutlich eindämmen.

Drittens müssen Social-Media-Unternehmen für die Förderung von Deepfake-Inhalten zur Verantwortung gezogen werden. Derzeit schützt Abschnitt 230 Internetunternehmen vor der Haftung für benutzergenerierte Inhalte.

KLICKEN SIE HIER FÜR WEITERE MEINUNGEN ZU FOX NEWS

Eine wirksame Reform wäre, Unternehmen für Deepfake-Inhalte haftbar zu machen, an deren Verbreitung sie aktiv beteiligt sind. Dazu gehören gezielte Werbung oder algorithmisches Boosting, bei dem der Inhalt Benutzern angezeigt wird, die ihn sonst nicht gesehen hätten.

Derzeit profitieren die großen sozialen Netzwerke davon, dass umstrittene Deepfake-Inhalte viral gehen. Es erhöht das Nutzerengagement und die Werbeeinnahmen, was zur Durchsetzung des Laissez-faire führt.

Viertens ist eine verbesserte Medienkompetenz dringend erforderlich. Studien zeigen, dass Aufklärung zu diesen Themen die Gesamtüberzeugungskraft von Deepfakes und anderen Online-Manipulationen deutlich verringern kann.

KLICKEN SIE HIER, UM DIE FOX NEWS-APP ZU ERHALTEN

Das MIT Center for Advanced Virtuality ist ein gutes Beispiel, das Online-Medienkompetenzkurse für Studenten und Pädagogen anbietet. Ähnliche Initiativen können dazu beitragen, die Medienkompetenz und die Fähigkeiten zum kritischen Denken bei Schülern der Mittel- und Oberstufe zu verbessern.

Es bedarf einer vereinten Front, die technologische, gesetzgeberische und pädagogische Anstrengungen vereint. Dazu gehört eine verstärkte Zusammenarbeit zwischen Social-Media- und KI-Unternehmen, politischen Entscheidungsträgern, Pädagogen und Nutzern gleichermaßen. Der Einsatz könnte nicht höher sein.

KLICKEN SIE HIER, UM MEHR VON MARK WEINSTEIN ZU LESEN

source site

Leave a Reply