Als Reid Southen, ein in Michigan ansässiger Filmkonzeptkünstler, zum ersten Mal einen KI-Bildgenerator ausprobierte, war er fasziniert von dessen Fähigkeit, einfache Textaufforderungen in Bilder umzuwandeln.
Doch nachdem er erfuhr, wie KI-Systeme auf die Kunstwerke anderer Leute trainiert wurden, wich seine Neugier beunruhigenderen Gedanken: Beuteten die Werkzeuge Künstler aus und verletzten dabei das Urheberrecht?
Inspiriert durch Tests, die er online gesehen hatte, bat er Midjourney, einen KI-Bildgenerator, ein Bild von Joaquin Phoenix aus „The Joker“ zu erstellen. Innerhalb von Sekunden erstellte das System ein Bild, das nahezu identisch mit einem Bild aus dem Film von 2019 war.
Er führte weitere Tests mit verschiedenen Eingabeaufforderungen durch. „Videogame Hedgehog“ brachte Sonic zurück, Segas witzigen Protagonisten. „Animated Toys“ erstellte ein Tableau mit Woody, Buzz und anderen Charakteren aus Pixars „Toy Story“. Als er „Beliebter Film-Screenshot“ tippte, tauchte Iron Man, die Marvel-Figur, in einer vertrauten Pose auf.
„Was sie tun, ist ein klarer Beweis für die Ausbeutung und Verwendung von geistigem Eigentum, für das sie keine Lizenz haben“, sagte Herr Southen und bezog sich dabei auf die Nutzung von geistigem Eigentum durch KI-Unternehmen.
Die Tests – die von anderen Künstlern, KI-Wächtern und Reportern der New York Times wiederholt wurden – werfen Fragen zu den Trainingsdaten auf, die zur Erstellung jedes KI-Systems verwendet werden, und ob die Unternehmen gegen Urheberrechte verstoßen.
Mehrere Klagen von Schauspielern wie Sarah Silverman und Autoren wie John Grisham haben diese Frage vor Gericht gestellt. (The Times hat OpenAI, das Unternehmen hinter ChatGPT, und Microsoft, einen wichtigen Unterstützer des Unternehmens, wegen Verletzung seines Urheberrechts an Nachrichteninhalten verklagt.)
KI-Unternehmen haben geantwortet, dass die Verwendung von urheberrechtlich geschütztem Material durch „Fair Use“ geschützt ist, einem Teil des Urheberrechts, der die Verwendung von Material in bestimmten Fällen erlaubt. Sie sagten auch, dass das zu genaue Reproduzieren von urheberrechtlich geschütztem Material ein Fehler sei, der oft als „Auswendiglernen“ bezeichnet wird und den sie zu beheben versuchen. Laut KI-Experten kann es zu einer Speicherung kommen, wenn die Trainingsdaten mit vielen ähnlichen oder identischen Bildern überfrachtet werden. Das Problem tritt aber auch bei Material auf, das nur selten in den Trainingsdaten vorkommt, wie z. B. E-Mails.
Wenn Mr. Southen beispielsweise Midjourney um einen „Dune-Film-Screencap“ aus dem „Dune-Filmtrailer“ bittet, gibt es möglicherweise nur begrenzte Möglichkeiten, aus denen das Modell schöpfen kann. Das Ergebnis war ein Bild, das kaum von dem im Trailer des Films zu unterscheiden war.
Eine Sprecherin von OpenAI verwies auf einen Blogbeitrag, in dem das Unternehmen argumentierte, dass Schulungen zu öffentlich zugänglichen Daten eine „faire Nutzung“ seien und dass es Schöpfern und Künstlern mehrere Möglichkeiten gebe, sich von seinem Schulungsprozess abzumelden.
Midjourney reagierte nicht auf Anfragen nach Kommentaren. Das Unternehmen änderte seine Nutzungsbedingungen im Dezember und fügte hinzu, dass Benutzer den Dienst nicht nutzen dürfen, um „die geistigen Eigentumsrechte anderer, einschließlich des Urheberrechts, zu verletzen“. Microsoft lehnte eine Stellungnahme ab.
Warner Bros., das Urheberrechte an mehreren von Herrn Southen getesteten Filmen besitzt, lehnte eine Stellungnahme ab.
„Niemand weiß, wie das ausgehen wird, und jeder, der Ihnen sagt, dass es sich definitiv um eine faire Verwendung handelt, liegt falsch“, sagte Keith Kupferschmid, Präsident und Geschäftsführer der Copyright Alliance, einer Branchengruppe, die Urheberrechtsinhaber vertritt. „Das ist eine neue Grenze.“
KI-Unternehmen könnten das Urheberrecht auf zwei Arten verletzen, sagte Herr Kupferschmid: Sie könnten an urheberrechtlich geschütztem Material trainieren, das sie nicht lizenziert haben, oder sie könnten urheberrechtlich geschütztes Material reproduzieren, wenn Benutzer eine Eingabeaufforderung eingeben.
Die Experimente von Herrn Southen und anderen brachten Beispiele für beides ans Licht.
KI-Unternehmen sagten, sie hätten Leitplanken eingerichtet, die verhindern könnten, dass ihre KI-Systeme Material produzieren, das gegen das Urheberrecht verstößt. Aber Kritiker wie Gary Marcus, ein emeritierter Professor der New York University, KI-Experte und Autor des Newsletters „Marcus on AI“, sagten, dass trotz dieser Strategien immer noch urheberrechtlich geschütztes Material durchschlüpft.
Als Times-Journalisten ChatGPT baten, ein Bild von SpongeBob Schwammkopf, der animierten Fernsehfigur für Kinder, zu erstellen, entstand ein Bild, das dem Zeichentrickfilm bemerkenswert ähnlich war. Der Chatbot sagte, das Bild ähnele nur dem urheberrechtlich geschützten Werk. Die Unterschiede waren subtil – die Krawatte der Figur war gelb statt rot und sie hatte Augenbrauen statt Wimpern.
Als Journalisten der Times den Namen von SpongeBob in einer anderen Anfrage wegließen, schuf OpenAI eine Figur, die dem urheberrechtlich geschützten Werk noch näher kam.
Prof. Kathryn Conrad, die Englisch an der University of Kansas lehrt und mit Herrn Marcus zusammengearbeitet hat, startete ihre eigenen Tests, weil sie befürchtete, dass KI-Systeme Künstler ersetzen und entwerten könnten, indem sie ihr geistiges Eigentum trainieren.
In ihren Experimenten fragte sie Microsoft Bing nach einer „italienischen Videospielfigur“, ohne Mario, die berühmte Figur von Nintendo, zu erwähnen. Der Bildgenerator von Microsoft erstellte Kunstwerke, die dem urheberrechtlich geschützten Werk sehr ähnelten. Das Tool von Microsoft verwendet eine Version von DALL-E, dem von OpenAI erstellten Bildgenerator.
Seit der Veröffentlichung dieses Experiments im Dezember hat der Bildgenerator unterschiedliche Ergebnisse geliefert. Eine identische Aufforderung, die im Januar von Times-Reportern eingegeben wurde, führte zu Bildern, die deutlicher vom urheberrechtlich geschützten Material abwichen, was Professor Conrad darauf hindeutete, dass das Unternehmen möglicherweise seine Leitplanken verschärft.
„Dies ist ein Pflaster für eine blutende Wunde“, sagte Professor Conrad über die von OpenAI und anderen implementierten Sicherheitsmaßnahmen. „Das lässt sich nicht einfach mit einer Leitplanke beheben.“