Wie Meta- und KI-Unternehmen auffällige Schauspieler rekrutierten, um KI zu trainieren

Diese Art von juristischer Sprache kann schwer zu verstehen sein, insbesondere wenn es um Technologien geht, die sich so schnell verändern. Im Wesentlichen bedeutet es jedoch, dass „Sie möglicherweise Dinge verschenken, von denen Sie nicht wussten, dass sie noch nicht existierten“, sagt Emily Poler, eine Prozessanwältin, die Mandanten in Streitigkeiten an der Schnittstelle von Medien, Technologie usw. vertritt geistiges Eigentum.

„Wenn ich hier Anwalt für einen Schauspieler wäre, würde ich auf jeden Fall prüfen, ob man wissentlich auf Rechte verzichten kann, wo Dinge noch gar nicht existieren“, fügt sie hinzu.

Wie Jessica argumentiert: „Sobald sie Ihr Bild haben, können sie es jederzeit und wie auch immer verwenden.“ Sie ist der Meinung, dass die Ähnlichkeiten von Schauspielern auf die gleiche Weise verwendet werden könnten, wie die Werke anderer Künstler, wie Gemälde, Lieder und Gedichte, zum Trainieren generativer KI verwendet wurden, und sie befürchtet, dass die KI einfach „eine Zusammensetzung erstellen könnte, die aussieht“ „Menschlich“, also „glaubhaft als Mensch“, aber „es wäre nicht als Sie erkennbar, sodass Sie sie möglicherweise nicht verklagen können“ – selbst wenn dieser von der KI erzeugte Mensch auf Ihnen basiert.

Für Jessica erscheint dies besonders plausibel, wenn man bedenkt, dass sie Erfahrung als asiatisch-amerikanische Hintergrundschauspielerin in einer Branche hat, in der die Repräsentation oft einer symbolischen Minderheit gleichkommt. Jetzt, so befürchtet sie, könnte jeder, der Schauspieler engagiert, „ein paar Asiaten rekrutieren“ und sie scannen, um „einen asiatischen Avatar“ zu erstellen, den sie verwenden könnten, anstatt „einen von Ihnen für einen Werbespot zu engagieren“.

Es sind nicht nur Bilder, um die sich Schauspieler Sorgen machen sollten, sagt Adam Harvey, ein angewandter Forscher, der sich auf Computer Vision, Privatsphäre und Überwachung konzentriert und einer der Mitschöpfer von Exposed.AI ist, das die Datensätze katalogisiert, die zum Trainieren von Gesichtsbehandlungen verwendet werden Erkennungssysteme.

Was „Ähnlichkeit“ ausmacht, verändert sich, sagt er. Während das Wort heute in erster Linie als fotografisches Abbild verstanden wird, stellen Musiker diese Definition in Frage und schließen auch stimmliche Ähnlichkeiten ein. Irgendwann, so glaubt er, „wird es auch an der emotionalen Grenze herausgefordert“ – das heißt, Schauspieler könnten argumentieren, dass ihre Mikroausdrücke einzigartig sind und geschützt werden sollten.

Kalehoff von Realeyes sagte nicht, wofür das Unternehmen die Studienergebnisse konkret verwenden würde, führte jedoch in einer E-Mail aus, dass es „eine Vielzahl von Anwendungsfällen geben könnte, wie zum Beispiel den Aufbau besserer digitaler Medienerlebnisse bei medizinischen Diagnosen (z. B. Haut/Muskel). Erkrankungen), Sicherheitswarnerkennung oder Roboterwerkzeuge zur Unterstützung medizinischer Störungen im Zusammenhang mit der Erkennung von Gesichtsausdrücken (wie Autismus).“

Jetzt, so befürchtet sie, könnte jeder, der Schauspieler engagiert, „ein paar Asiaten rekrutieren“ und sie scannen, um „einen asiatischen Avatar“ zu erstellen, den sie verwenden könnten, anstatt „einen von Ihnen für einen Werbespot zu engagieren“.

Auf die Frage, wie Realeyes „Ähnlichkeit“ definiere, antwortete er, dass das Unternehmen diesen Begriff – ebenso wie „kommerziell“, ein anderes Wort, für das es angenommene, aber keine allgemein anerkannte Definitionen gibt – auf eine Weise verwende, die „für uns gleich“ sei als [a] Generelles Geschäft.” Er fügte hinzu: „Wir haben keine spezifische Definition, die sich vom Standardgebrauch unterscheidet.“

source site

Leave a Reply