Warum das Anbringen von Wasserzeichen bei KI-generierten Inhalten kein Vertrauen im Internet garantiert

Erschwerend kommt hinzu, dass Wasserzeichen oft als Sammelbegriff für die allgemeine Offenlegung von Inhalten verwendet werden, obwohl es viele Methoden gibt. Eine genauere Lektüre der Verpflichtungen des Weißen Hauses beschreibt eine andere Offenlegungsmethode namens Provenienz, die auf kryptografischen Signaturen und nicht auf unsichtbaren Signalen beruht. In der Fachpresse wird dies jedoch oft als Wasserzeichen bezeichnet. Wenn Sie dieses Durcheinander an Begriffen verwirrend finden, können Sie sicher sein, dass Sie nicht der Einzige sind. Aber Klarheit ist wichtig: Der KI-Sektor kann keine konsistenten und robusten Transparenzmaßnahmen umsetzen, wenn nicht einmal Einigkeit darüber besteht, wie wir die verschiedenen Techniken bezeichnen.

Ich habe mir sechs erste Fragen ausgedacht, die uns dabei helfen könnten, den Nutzen von Wasserzeichen und anderen Offenlegungsmethoden für KI zu bewerten. Dadurch soll sichergestellt werden, dass verschiedene Parteien genau das Gleiche diskutieren und dass wir jede Methode gründlich und konsistent bewerten können.

Kann das Wasserzeichen selbst manipuliert werden?

Ironischerweise können die technischen Signale, die als hilfreich angepriesen werden, um zu beurteilen, woher Inhalte stammen und wie sie manipuliert werden, manchmal selbst manipuliert sein. Obwohl es schwierig ist, können sowohl unsichtbare als auch sichtbare Wasserzeichen entfernt oder verändert werden, wodurch sie unbrauchbar werden, um uns zu sagen, was synthetisch ist und was nicht. Und insbesondere die Leichtigkeit, mit der sie manipuliert werden können, hängt davon ab, mit welcher Art von Inhalten Sie es zu tun haben.

Ist die Haltbarkeit des Wasserzeichens für verschiedene Inhaltstypen konsistent?

Während unsichtbare Wasserzeichen oft als umfassende Lösung für den Umgang mit generativer KI angepriesen werden, lassen sich solche eingebetteten Signale in Texten viel leichter manipulieren als in audiovisuellen Inhalten. Das erklärt wahrscheinlich, warum das zusammenfassende Dokument des Weißen Hauses darauf hindeutet, dass Wasserzeichen auf alle Arten von KI angewendet werden würden. Im vollständigen Text wird jedoch klargestellt, dass sich Unternehmen nur zur Offenlegung audiovisuellen Materials verpflichtet haben. Bei der KI-Politik muss daher genau darauf geachtet werden, wie sich Offenlegungstechniken wie das unsichtbare Wasserzeichen in ihrer Haltbarkeit und allgemeiner technischen Robustheit bei verschiedenen Inhaltstypen unterscheiden. Eine Offenlegungslösung mag für Bilder großartig sein, für Text jedoch nutzlos.

Wer kann diese unsichtbaren Signale erkennen?

Selbst wenn der KI-Sektor der Implementierung unsichtbarer Wasserzeichen zustimmt, werden unweigerlich tiefere Fragen auftauchen, wer in der Lage ist, diese Signale zu erkennen und schließlich darauf basierende verbindliche Behauptungen aufzustellen. Wer darf entscheiden, ob Inhalte KI-generiert sind und vielleicht darüber hinaus auch, ob sie irreführend sind? Wenn jeder Wasserzeichen erkennen kann, könnte dies dazu führen, dass sie für den Missbrauch durch böswillige Akteure anfällig werden. Andererseits könnte ein kontrollierter Zugang zur Erkennung unsichtbarer Wasserzeichen – insbesondere wenn er von großen KI-Unternehmen diktiert wird – die Offenheit beeinträchtigen und das technische Gatekeeping verschärfen. Die Implementierung dieser Art von Offenlegungsmethoden, ohne herauszufinden, wie sie verwaltet werden, könnte dazu führen, dass sie misstrauisch und ineffektiv werden. Und wenn die Techniken nicht weit verbreitet sind, könnten böswillige Akteure auf Open-Source-Technologien zurückgreifen Mangel die unsichtbaren Wasserzeichen, um schädliche und irreführende Inhalte zu erstellen.

Schützen Wasserzeichen die Privatsphäre?

Wie eine zentrale Arbeit von Witness, einer Menschenrechts- und Technologiegruppe, deutlich macht, kann jedes Rückverfolgungssystem, das mit einem Inhalt im Laufe der Zeit unterwegs ist, auch zu Datenschutzproblemen für diejenigen führen, die den Inhalt erstellen. Der KI-Sektor muss sicherstellen, dass Wasserzeichen und andere Offenlegungstechniken so gestaltet sind, dass keine identifizierenden Informationen enthalten sind, die die Urheber gefährden könnten. Beispielsweise könnte ein Menschenrechtsverteidiger Verstöße durch Fotos festhalten, die mit identifizierenden Informationen als Wasserzeichen versehen sind, was die Person zu einem leichten Ziel für eine autoritäre Regierung macht. Sogar das Wissen, dass Wasserzeichen könnte Die Offenlegung der Identität eines Aktivisten könnte abschreckende Auswirkungen auf Ausdruck und Sprache haben. Die politischen Entscheidungsträger müssen klarere Leitlinien dafür bereitstellen, wie Offenlegungen gestaltet werden können, um die Privatsphäre derjenigen zu wahren, die Inhalte erstellen, und gleichzeitig genügend Details enthalten, um nützlich und praktisch zu sein.

Helfen sichtbare Offenlegungen dem Publikum, die Rolle generativer KI zu verstehen?

Selbst wenn unsichtbare Wasserzeichen technisch langlebig sind und die Privatsphäre wahren, helfen sie dem Publikum möglicherweise nicht bei der Interpretation von Inhalten. Obwohl direkte Offenlegungen wie sichtbare Wasserzeichen den intuitiven Reiz haben, für mehr Transparenz zu sorgen, erzielen solche Offenlegungen nicht unbedingt die beabsichtigte Wirkung und können oft als bevormundend, voreingenommen und strafend wahrgenommen werden, selbst wenn sie nichts über die Wahrhaftigkeit von Informationen aussagen ein Stück Inhalt. Darüber hinaus könnte das Publikum direkte Offenlegungen falsch interpretieren. Ein Teilnehmer meiner Recherche aus dem Jahr 2021 interpretierte die Bezeichnung „manipulierte Medien“ von Twitter fälschlicherweise als Hinweis darauf, dass die Institution „Medien“ ihn manipulierte, und nicht, dass der Inhalt des spezifischen Videos zur Irreführung bearbeitet worden sei. Zwar gibt es immer mehr Forschungsarbeiten darüber, wie sich unterschiedliche Benutzererfahrungsdesigns auf die Interpretation der Offenlegung von Inhalten durch das Publikum auswirken, ein Großteil davon konzentriert sich jedoch auf große Technologieunternehmen und konzentriert sich auf unterschiedliche Kontexte, beispielsweise Wahlen. Für eine wirksame Politikgestaltung zur Verbesserung der Transparenz ist es von entscheidender Bedeutung, die Wirksamkeit direkter Offenlegungen und Benutzererfahrungen zu untersuchen und sich nicht nur auf die emotionale Anziehungskraft der Kennzeichnung von KI-generierten Inhalten zu verlassen.

Könnte das sichtbare Wasserzeichen von KI-generierten Inhalten das Vertrauen in „echte“ Inhalte verringern?

Die vielleicht heikelste gesellschaftliche Frage, die es zu bewerten gilt, ist, wie koordinierte, direkte Offenlegungen die allgemeine Einstellung zu Informationen beeinflussen und möglicherweise das Vertrauen in „echte“ Inhalte schwächen. Wenn KI-Organisationen und Social-Media-Plattformen die Tatsache, dass Inhalte KI-generiert oder verändert wurden, lediglich als eine verständliche, wenn auch begrenzte Möglichkeit bezeichnen, Urteile darüber zu vermeiden, welche Behauptungen irreführend oder schädlich sind, wie wirkt sich das auf die Art und Weise aus, wie wir was wahrnehmen? sehen wir online?

source site

Leave a Reply