So erkennen Sie einen KI-generierten Deepfake

KI-Fälschungen werden schnell zu einem der größten Probleme, mit denen wir online konfrontiert sind. Durch die Verbreitung und den Missbrauch generativer künstlicher Intelligenzwerkzeuge nehmen irreführende Bilder, Videos und Audiodaten zu.

Da fast täglich KI-Deepfakes auftauchen, die jeden von Taylor Swift bis Donald Trump darstellen, wird es immer schwieriger zu unterscheiden, was echt ist und was nicht. Video- und Bildgeneratoren wie DALL-E, Midjourney und Sora von OpenAI machen es auch Menschen ohne technische Kenntnisse leicht, Deepfakes zu erstellen – geben Sie einfach eine Anfrage ein und das System spuckt sie aus.

Diese gefälschten Bilder mögen harmlos erscheinen. Aber sie können für Betrug und Identitätsdiebstahl oder für Propaganda und Wahlmanipulation genutzt werden.

KI-DEEPFAKES GEFÄHRDEN DIE DEMOKRATIE. Hier sind 4 Möglichkeiten, sich zu wehren

So vermeiden Sie, von Deepfakes getäuscht zu werden:

SO ERKENNEN SIE EINEN DEEPFAKE

In den Anfängen von Deepfakes war die Technologie alles andere als perfekt und hinterließ oft verräterische Anzeichen einer Manipulation. Faktenprüfer haben auf Bilder mit offensichtlichen Fehlern hingewiesen, etwa Hände mit sechs Fingern oder Brillen mit unterschiedlich geformten Gläsern.

Aber mit der Verbesserung der KI ist es viel schwieriger geworden. Einige weit verbreitete Ratschläge – etwa die Suche nach unnatürlichen Blinzelmustern bei Menschen in Deepfake-Videos – gelten nicht mehr, sagte Henry Ajder, Gründer des Beratungsunternehmens Latent Space Advisory und führender Experte für generative KI.

Ein gefälschtes Video, in dem der ukrainische Präsident Wolodymyr Selenskyj seine Soldaten auffordert, ihre Waffen niederzulegen (rechts), im Vergleich zu echten Bildern von ihm (links), ist hinter einer Erklärung des Leiters für Sicherheitspolitik bei META in Washington, D.C. zu sehen. KI-gesteuert Mit fortschreitender Technologie wird es immer schwieriger, Deepfakes von echten Bildern zu unterscheiden. (Olivier Douliery/AFP über Getty Images)

Dennoch gebe es einige Dinge, auf die man achten müsse, sagte er.

Viele KI-Deepfake-Fotos, insbesondere von Menschen, haben einen elektronischen Glanz, „eine ästhetische Art von Glättungseffekt“, der die Haut „unglaublich poliert aussehen lässt“, sagte Ajder.

Er warnte jedoch davor, dass kreative Anregungen dieses und viele andere Anzeichen einer KI-Manipulation manchmal beseitigen können.

Überprüfen Sie die Konsistenz von Schatten und Beleuchtung. Oft ist das Motiv klar fokussiert und wirkt überzeugend lebensecht, Elemente im Hintergrund sind jedoch möglicherweise nicht so realistisch oder ausgefeilt.

Schauen Sie sich die Gesichter an

Face-Swapping ist eine der häufigsten Deepfake-Methoden. Experten raten, die Gesichtsränder genau zu betrachten. Passt der Hautton des Gesichts zum Rest des Kopfes oder des Körpers? Sind die Gesichtsränder scharf oder verschwommen?

Wenn Sie vermuten, dass ein Video einer sprechenden Person manipuliert wurde, schauen Sie sich ihren Mund an. Passen ihre Lippenbewegungen perfekt zum Ton?

Ajder schlägt vor, sich die Zähne anzusehen. Sind sie klar oder verschwommen und stimmen sie irgendwie nicht mit ihrem Erscheinungsbild im wirklichen Leben überein?

Das Cybersicherheitsunternehmen Norton sagt, dass die Algorithmen möglicherweise noch nicht ausgereift genug sind, um einzelne Zähne zu generieren. Daher könnte das Fehlen von Umrissen für einzelne Zähne ein Hinweis sein.

Denken Sie an das Gesamtbild

Manchmal ist der Kontext wichtig. Überlegen Sie einmal, ob das, was Sie sehen, plausibel ist.

Die Journalisten-Website Poynter weist darauf hin, dass es sich um einen Deepfake handeln könnte, wenn Sie sehen, dass eine Persönlichkeit des öffentlichen Lebens etwas tut, das „übertrieben, unrealistisch oder untypisch“ erscheint.

Würde der Papst zum Beispiel wirklich eine luxuriöse Steppjacke tragen, wie sie auf einem berüchtigten Fake-Foto dargestellt ist? Wenn ja, würden dann nicht weitere Fotos oder Videos von seriösen Quellen veröffentlicht?

MIT KI FÄLSCHUNGEN FINDEN

Ein anderer Ansatz besteht darin, KI zur Bekämpfung von KI einzusetzen.

Microsoft hat ein Authentifizierungstool entwickelt, das Fotos oder Videos analysieren kann, um eine Vertrauensbewertung darüber zu erhalten, ob sie manipuliert wurden. Der FakeCatcher des Chipherstellers Intel analysiert mithilfe von Algorithmen die Pixel eines Bildes, um festzustellen, ob es echt oder gefälscht ist.

Es gibt Online-Tools, die versprechen, Fälschungen aufzuspüren, wenn Sie eine Datei hochladen oder einen Link zu dem verdächtigen Material einfügen. Einige, wie der Authenticator von Microsoft, stehen jedoch nur ausgewählten Partnern und nicht der Öffentlichkeit zur Verfügung. Das liegt daran, dass Forscher schlechten Akteuren keinen Hinweis geben und ihnen im Deepfake-Wettrüsten einen größeren Vorteil verschaffen wollen.

Der offene Zugang zu Erkennungstools könnte den Menschen auch den Eindruck vermitteln, dass es sich um „göttliche Technologien handelt, die das kritische Denken für uns auslagern können“, obwohl wir uns stattdessen ihrer Grenzen bewusst sein müssen, sagte Ajder.

KLICKEN SIE HIER, UM DIE FOX NEWS-APP ZU ERHALTEN

Die Hürden beim Auffinden von Fälschungen

Abgesehen davon schreitet die künstliche Intelligenz rasant voran und KI-Modelle werden anhand von Internetdaten trainiert, um immer hochwertigere Inhalte mit weniger Fehlern zu produzieren.

Das heißt, es gibt keine Garantie dafür, dass dieser Rat auch in einem Jahr noch gültig ist.

Experten sagen, dass es sogar gefährlich sein könnte, gewöhnlichen Menschen die Last aufzubürden, zu digitalen Sherlocks zu werden, weil es ihnen ein falsches Selbstvertrauen vermitteln könnte, da es selbst für geschulte Augen immer schwieriger wird, Deepfakes zu erkennen.

source site

Leave a Reply