Warum die Wasserzeichenpläne von Big Tech eine willkommene gute Nachricht sind

Am 6. Februar kündigte Meta an, KI-generierte Bilder auf Facebook, Instagram und Threads zu kennzeichnen. Wenn jemand die KI-Tools von Meta zum Erstellen von Bildern verwendet, fügt das Unternehmen dem Bild sichtbare Markierungen sowie unsichtbare Wasserzeichen und Metadaten in der Bilddatei hinzu. Das Unternehmen gibt an, dass seine Standards den Best Practices der Partnership on AI, einer gemeinnützigen KI-Forschungsorganisation, entsprechen.

Big Tech setzt sich auch für einen vielversprechenden technischen Standard ein, der Bilder, Videos und Audio mit einer „Nährwertkennzeichnung“ versehen könnte. Es heißt C2PA und ist ein Open-Source-Internetprotokoll, das auf Kryptografie basiert, um Details über die Herkunft eines Inhalts oder das, was Technologen als „Herkunftsinformationen“ bezeichnen, zu verschlüsseln. Die Entwickler von C2PA vergleichen das Protokoll oft mit einer Nährwertkennzeichnung, die jedoch angibt, woher der Inhalt stammt und wer – oder was – ihn erstellt hat. Lesen Sie hier mehr darüber.

Am 8. Februar gab Google bekannt, dass es sich anderen Technologiegiganten wie Microsoft und Adobe im Lenkungsausschuss von C2PA anschließt und sein Wasserzeichen SynthID in alle KI-generierten Bilder seiner neuen Gemini-Tools integrieren wird. Meta sagt, dass es auch an C2PA teilnimmt. Ein branchenweiter Standard erleichtert Unternehmen die Erkennung von KI-generierten Inhalten, unabhängig davon, mit welchem ​​System sie erstellt wurden.

Auch OpenAI hat letzte Woche neue Maßnahmen zur Inhaltsherkunft angekündigt. Es heißt, dass Wasserzeichen zu den Metadaten von Bildern hinzugefügt werden, die mit ChatGPT und DALL-E 3, seiner bilderzeugenden KI, generiert wurden. OpenAI sagt, dass es nun eine sichtbare Beschriftung in Bildern einfügen wird, um zu signalisieren, dass sie mit KI erstellt wurden.

Diese Methoden sind ein vielversprechender Anfang, aber sie sind nicht narrensicher. Wasserzeichen in Metadaten lassen sich leicht umgehen, indem man einen Screenshot von Bildern macht und diesen einfach verwendet, während visuelle Beschriftungen zugeschnitten oder herausgeschnitten werden können. Es gibt vielleicht mehr Hoffnung für unsichtbare Wasserzeichen wie Googles SynthID, das die Pixel eines Bildes subtil verändert, sodass Computerprogramme das Wasserzeichen erkennen können, das menschliche Auge jedoch nicht. Diese sind schwerer zu manipulieren. Darüber hinaus gibt es keine zuverlässigen Möglichkeiten, KI-generiertes Video, Audio oder sogar Text zu kennzeichnen und zu erkennen.

Aber es ist immer noch wertvoll, diese Provenienz-Tools zu erstellen. Wie mir Henry Ajder, ein Experte für generative KI, vor ein paar Wochen sagte, als ich ihn darüber interviewte, wie man Deepfake-Pornos verhindern kann, geht es darum, eine „perverse Customer Journey“ zu schaffen. Mit anderen Worten: Fügen Sie der Deepfake-Pipeline Barrieren und Reibungspunkte hinzu, um die Erstellung und Weitergabe schädlicher Inhalte so weit wie möglich zu verlangsamen. Eine entschlossene Person wird diese Schutzmaßnahmen wahrscheinlich immer noch außer Kraft setzen können, aber jedes bisschen hilft.

Es gibt auch viele nichttechnische Lösungen, die Technologieunternehmen einführen könnten, um Probleme wie Deepfake-Pornos zu verhindern. Große Cloud-Dienstanbieter und App-Stores wie Google, Amazon, Microsoft und Apple könnten dazu übergehen, Dienste zu verbieten, die zur Erstellung nicht einvernehmlicher Deepfake-Aktfotos verwendet werden können. Und Wasserzeichen sollten grundsätzlich in alle KI-generierten Inhalte integriert werden, auch von kleineren Start-ups, die die Technologie entwickeln.

Was mir Hoffnung gibt, ist, dass es neben diesen freiwilligen Maßnahmen auch verbindliche Regelungen gibt, wie das AI Act und das Digital Services Act der EU, die Technologieunternehmen dazu verpflichten, KI-generierte Inhalte offenzulegen und schädliche Inhalte schneller zu entfernen. Es besteht auch ein erneutes Interesse der US-Gesetzgeber an der Verabschiedung einiger verbindlicher Regeln für Deepfakes. Und nachdem Präsident Biden die Wähler durch KI-generierte Robocalls aufgefordert hatte, nicht zu wählen, gab die US-amerikanische Federal Communications Commission letzte Woche bekannt, dass sie den Einsatz von KI in diesen Anrufen verbietet.

source site

Leave a Reply