Die Kontroverse um das Bild von Taylor Swift schürt den Druck, „Deep Fakes“ zu verbieten

Tausende unschuldiger Frauen waren Opfer intimer Bilder, die ohne ihre Erlaubnis im Internet verbreitet wurden, eine Tragödie, die durch neue KI-Anwendungen noch verschlimmert wird, die gewöhnliche, in sozialen Medien veröffentlichte Bilder in erfundene pornografische Videos verwandeln können.

Aber die Bemühungen zur Bekämpfung von Deep Fakes und Rachepornos gingen diese Woche auf Hochtouren, nachdem anstößige, von der KI erstellte Bilder von Taylor Swift auf X, früher Twitter genannt, viral gingen. Der Social-Media-Dienst, der sein Personal für die Moderation von Inhalten stark reduziert hat, blockierte die Suche nach dem Namen des Popstars, nachdem Dutzende Bilder Millionen von Aufrufen erzielt hatten.

Das Problem geht über gefälschte Pornobilder hinaus. Mit den neuen KI-Apps können alle Arten von Bildern und Stimmen gefälscht werden. Vor den Vorwahlen in New Hampshire erhielten einige Wähler Robocalls mit einer gefälschten Aufzeichnung von Präsident Biden, der sie aufforderte, nicht zu wählen. Und ein zunehmender Betrugsfall, der sich an ältere Menschen richtet, basiert auf gefälschten Telefonanrufen junger Verwandter.

Nur eine Handvoll Staaten, darunter Virginia und Kalifornien, haben Gesetze zur Bekämpfung von Deep Fakes und Rachepornos erlassen, und es ist nicht klar, ob die gesetzlichen Verbote bisher große Auswirkungen hatten. In Massachusetts hat der Senator des Bundesstaates Barry Finegold, ein Demokrat aus Andover, einen Gesetzentwurf eingebracht, der Deep Fakes in der Werbung für politische Kampagnen verbietet. Die Gesetze müssen noch vor dem Obersten Gerichtshof geprüft werden, was den Schutz unter Berufung auf den Ersten Verfassungszusatz einschränken könnte. (Im Jahr 2002 hob das Gericht ein Verbot computergenerierter Kinderpornografie auf.)

Laut einem Bericht der Cybersicherheitsgruppe Home Security Heroes kursierten im vergangenen Jahr fast 100.000 Deep-Fake-Videos online, 98 Prozent davon waren pornographisch. Das sei mehr als eine Versechsfachung seit 2019, sagte die Gruppe.

Der Abgeordnete Joe Morelle, ein New Yorker Demokrat, drängt auf ein von ihm verfasstes Bundesgesetz, das die Verbreitung nicht einvernehmlicher, digital veränderter intimer Bilder im ganzen Land verbietet. Der Gesetzentwurf wurde vor den Anschlägen von Taylor Swift eingebracht, aber Morelle nutzte die Nachricht, um Unterstützung zu gewinnen.

„Deepfakes passieren nicht nur Prominenten – sie passieren Frauen und Mädchen überall und jeden Tag“, schrieb Morelle in einem Beitrag auf X.

Ein anderer Ansatz besteht darin, auf technologische Lösungen zu setzen. Die Website StopNCII.org wurde ursprünglich eingerichtet, um Menschen dabei zu helfen, Online-Beiträge mit echten Bildern, die ohne Zustimmung verbreitet werden, zu eliminieren. Neun Social-Media-Dienste, darunter Facebook, Reddit und Snap, sowie die Pornoseite Pornhub arbeiteten mit der Website zusammen, um bei der Entfernung nicht einvernehmlicher Bilder zu helfen.

Die gleiche Technologie kann auch gegen von KI erstellte Deep-Fake-Pornos eingesetzt werden. Ein Opfer kann Verwenden Sie die Website, um einen digitalen Fingerabdruck eines beleidigenden Bildes zu erstellen. Social-Media-Sites können dann Verwenden Sie den Fingerabdruck, um Kopien des Bildes zu identifizieren und zu erstellen.

Seit 2015, so der Dienst, habe er dabei geholfen, über 200.000 Bilder zu entfernen.

Das Weiße Haus von Biden hat eine andere Idee. Sie drängen darauf, dass KI-Unternehmen allen von KI erstellten Inhalten ein digitales Wasserzeichen hinzufügen, damit sie leicht als Fälschung identifiziert werden können. Das könnte laut einem Bericht von 404 Media bei den Swift-Fälschungen geholfen haben, die mit der Designer-App von Microsoft erstellt wurden.

Aber schlechte Akteure könnten einen Weg finden, die Wasserzeichen zu umgehen – oder die digitale Warnung sogar in reale Medien einzufügen.

Daher müssen Social-Media-Seiten und ihre Nutzer vorerst äußerst wachsam bleiben.


Aaron Pressman ist unter [email protected] erreichbar. Folge ihm @ampressman.


source site

Leave a Reply