Ich sollte nicht akzeptieren müssen, in Deepfake-Pornos zu sein

Kürzlich wurde ich durch eine Google-Benachrichtigung darüber informiert, dass ich Gegenstand von Deepfake-Pornografie bin. Ich war nicht schockiert. Seit mehr als einem Jahr bin ich das Ziel einer weit verbreiteten Online-Belästigungskampagne, und Deepfake-Pornos – deren Ersteller mithilfe künstlicher Intelligenz explizite Videoclips generieren, die scheinbar echte Menschen in sexuellen Situationen zeigen, die es in Wirklichkeit nie gegeben hat – sind zu einem Ziel geworden Eine wertvolle Waffe im Arsenal von Frauenfeinden, mit denen sie versuchen, Frauen aus dem öffentlichen Leben zu verdrängen. Das einzige Gefühl, das ich verspürte, als ich meine Anwälte über die jüngste Verletzung meiner Privatsphäre informierte, war eine tiefe Enttäuschung über die Technologie – und über die Gesetzgeber und Aufsichtsbehörden, die Menschen, die ohne ihre Zustimmung in Pornoclips auftauchen, keine Gerechtigkeit widerfahren lassen. Viele Kommentatoren sind darüber verunsichert Potenzial Bedrohungen durch künstliche Intelligenz – Deepfake-Videos, die Wahlen beeinflussen oder Kriege auslösen, arbeitsplatzvernichtende Einsätze von ChatGPT und anderen generativen Technologien. Dennoch haben die politischen Entscheidungsträger ein dringendes KI-Problem, das bereits viele Leben betrifft, auch mein Leben, so gut wie ignoriert.

Letztes Jahr bin ich als Leiter des Disinformation Governance Board des US-Heimatschutzministeriums zurückgetreten, einem politischen Koordinierungsgremium, das die Biden-Regierung aufgrund der überwiegend rechten Kritik scheitern ließ. In den folgenden Monaten wurden mindestens drei künstlich generierte Videos, die mich bei sexuellen Handlungen zu zeigen scheinen, auf Websites hochgeladen, die auf Deepfake-Pornos spezialisiert sind. Die Bilder ähneln mir nicht sehr; Die generativen KI-Modelle, die sie ausgespuckt haben, scheinen auf meinem offiziellen Porträt der US-Regierung trainiert worden zu sein, das ich aufgenommen habe, als ich im sechsten Monat schwanger war. Wer auch immer die Videos erstellt hat, hat wahrscheinlich ein kostenloses „Face-Swap“-Tool verwendet und im Wesentlichen mein Foto in ein vorhandenes Pornovideo eingefügt. In manchen Momenten ist der Mund des Originaldarstellers sichtbar, während sich der Deepfake Frankenstein bewegt und mein Gesicht flackert. Diese Videos sollen jedoch nicht überzeugen – alle Websites und die einzelnen Videos, die sie hosten, sind eindeutig als Fälschungen gekennzeichnet. Obwohl sie dem Zuschauer möglicherweise billigen Nervenkitzel bieten, besteht ihr tieferer Zweck darin, Frauen zu demütigen, zu beschämen und zu objektivieren, insbesondere Frauen, die die Kühnheit haben, sich zu äußern. Nachdem ich jahrelang darüber recherchiert und darüber geschrieben habe, bin ich gegen diesen Missbrauch einigermaßen gewöhnt. Aber für andere Frauen, insbesondere solche in eher konservativen oder patriarchalischen Umfeldern, könnte der Auftritt in einem Deepfake-Porno-Video zutiefst stigmatisierend, sogar karriere- oder lebensbedrohlich sein.

Wie um den Zwang der Videomacher zu unterstreichen, Frauen zu bestrafen, die sich zu Wort melden, zeigt mich eines der Videos, auf das Google mich aufmerksam gemacht hat, mit Hillary Clinton und Greta Thunberg. Aufgrund ihrer weltweiten Berühmtheit sind Deepfakes des ehemaligen Präsidentschaftskandidaten und des Klimaaktivisten weitaus zahlreicher und anschaulicher als die von mir. Benutzer können auch problemlos Deepfake-Pornovideos der Sängerin Taylor Swift, der Schauspielerin Emma Watson und der ehemaligen Fox News-Moderatorin Megyn Kelly finden; Demokratische Beamte wie Kamala Harris, Nancy Pelosi und Alexandria Ocasio-Cortez; die Republikanerinnen Nikki Haley und Elise Stefanik; und unzählige andere prominente Frauen. Indem wir einfach als Frauen im öffentlichen Leben existieren, sind wir alle zur Zielscheibe geworden, unserer Errungenschaften, unseres Intellekts und unseres Aktivismus beraubt und zum Vergnügen von Millionen anonymer Augen zu Sexobjekten degradiert.

Männer sind diesem Missbrauch natürlich weitaus seltener ausgesetzt. Beim Melden dieses Artikels habe ich nach dem Namen gesucht Donald Trump auf einer prominenten Deepfake-Porno-Website und stieß auf ein Video des ehemaligen Präsidenten – und drei ganze Seiten mit Videos, die seine Frau Melania und seine Tochter Ivanka zeigen. Eine Studie von Sensity, einem Unternehmen, das synthetische Medien überwacht, aus dem Jahr 2019 schätzte, dass es sich bei mehr als 96 Prozent der damals existierenden Deepfakes um nicht einvernehmliche Pornografie von Frauen handelte. Die Gründe für dieses Missverhältnis hängen miteinander zusammen und sind sowohl technischer als auch motivierender Natur: Bei den Personen, die diese Videos machen, handelt es sich vermutlich um heterosexuelle Männer, denen ihre eigene Befriedigung wichtiger ist als die Persönlichkeit einer Frau. Und weil KI-Systeme auf einem Internet trainiert werden, das voller Bilder von Frauenkörpern ist, sind viele der nicht einvernehmlichen Pornos, die diese Systeme erzeugen, glaubwürdiger als beispielsweise computergenerierte Clips mit niedlichen spielenden Tieren.

Als ich mir die Herkunft der Videos anschaute, in denen ich auftauche – schließlich bin ich ein Desinformationsforscher –, bin ich auf Deepfake-Porno-Foren gestoßen, in denen die Nutzer bemerkenswert gelassen mit der Verletzung der Privatsphäre umgehen, die sie begehen. Einige scheinen zu glauben, dass sie das Recht haben, diese Bilder zu verbreiten – dass sie Kunst oder ein legitimes Parodiewerk geschaffen haben, weil sie ein öffentlich zugängliches Foto einer Frau in eine Anwendung eingespeist haben, die für die Herstellung von Pornografie entwickelt wurde. Andere glauben offenbar, dass sie allein durch die Kennzeichnung ihrer Videos und Bilder als gefälscht rechtliche Konsequenzen für ihr Handeln vermeiden können. Diese Anbieter behaupten, dass ihre Videos ausschließlich Unterhaltungs- und Bildungszwecken dienen. Indem sie diese Beschreibung jedoch für Videos verwenden, in denen bekannte Frauen „erniedrigt“ oder „verprügelt“ werden – wie es in den Titeln einiger Clips heißt – verraten diese Männer viel darüber, was sie als angenehm und informativ empfinden.

Ironischerweise zeigen einige YouTuber, die in Deepfake-Foren posten, große Sorge um ihre eigene Sicherheit und Privatsphäre – in einem Forenthread, den ich gefunden habe, wird ein Mann verspottet, weil er sich bei einer Face-Swapping-App angemeldet hat, die Benutzerdaten nicht schützt –, bestehen aber darauf dass die Frauen, die sie darstellen, nicht die gleichen Rechte haben, weil sie öffentliche Karrierewege gewählt haben. Die gruseligste Seite, die ich gefunden habe, listet Frauen auf, die dieses Jahr 18 Jahre alt werden. Sie werden an ihren Geburtstagen von den „schwarzen Listen“ entfernt, die Deepfake-Forum-Hosts führen, damit sie nicht gegen Gesetze gegen Kinderpornografie verstoßen.

Effektive Gesetze sind genau das, was die Opfer von Deepfake-Pornos brauchen. Mehrere Bundesstaaten – darunter Virginia und Kalifornien – haben die Verbreitung von Deepfake-Pornos verboten. Aber für Opfer, die außerhalb dieser Gerichtsbarkeiten leben oder Gerechtigkeit gegen anderswo ansässige Täter suchen, haben diese Gesetze kaum Wirkung. In meinem Fall ist es wahrscheinlich weder Zeit noch Geld wert, herauszufinden, wer diese Videos erstellt hat. Ich könnte versuchen, Plattformen vorzuladen, um Informationen über die Benutzer zu erhalten, die die Videos hochgeladen haben, aber selbst wenn die Websites über diese Details verfügten und sie mir mitteilten, könnte ich wenig tun, wenn meine Täter außerhalb des Bundesstaats oder in einem anderen Land leben um sie vor Gericht zu bringen.

Der Abgeordnete Joseph Morelle aus New York versucht, diese Gesetzeslücke zu schließen, indem er den Preventing Deepfakes of Intimate Images Act wieder einführt, einen Änderungsvorschlag zur Neuautorisierung des Violence Against Women Act im Jahr 2022. Morelles Gesetzentwurf würde ein landesweites Verbot der Verbreitung von Deepfakes ohne die ausdrückliche Zustimmung der auf dem Bild oder Video abgebildeten Personen vorsehen. Die Maßnahme würde den Opfern auch etwas leichtere Möglichkeiten bieten, wenn sie unabsichtlich in nicht einvernehmlichen Pornos mitspielen.

Da es keine strenge Bundesgesetzgebung gibt, sind die Möglichkeiten, die mir zur Verfügung stehen, um den durch die Deepfakes von mir verursachten Schaden zu mildern, nicht besonders ermutigend. Ich kann verlangen, dass Google die Webadressen der Videos in seinen Suchergebnissen entfernt, und – obwohl die rechtliche Grundlage für eine solche Forderung wacklig wäre – meine Anwälte Online-Plattformen auffordern, die Videos vollständig zu entfernen. Aber selbst wenn diese Websites die Vorschriften einhalten, ist die Wahrscheinlichkeit, dass die Videos woanders auftauchen, äußerst hoch. Frauen, auf die Deepfake-Pornos abzielen, geraten in ein erschöpfendes, teures und endloses Trollspiel.

Das Gesetz zur Verhinderung von Deepfakes von intimen Bildern wird das Deepfake-Problem nicht lösen; Das Internet existiert für immer, und die Deepfake-Technologie wird immer allgegenwärtiger und ihre Ergebnisse immer überzeugender. Doch gerade weil die KI von Monat zu Monat leistungsfähiger wird, ist die Anpassung des Gesetzes an eine aufkommende Kategorie frauenfeindlichen Missbrauchs umso wichtiger, um die Privatsphäre und Sicherheit von Frauen zu schützen. Da sich die politischen Entscheidungsträger Sorgen darüber machen, ob KI die Welt zerstören wird, flehe ich sie an: Stoppen wir zunächst die Männer, die sie nutzen, um Frauen zu diskreditieren und zu demütigen.

source site

Leave a Reply