Urheberrechtsprobleme der generativen KI werden durch Blockchain nicht gelöst

  • Urheberrechtsprobleme der generativen KI werden durch Blockchain nicht gelöst.
  • In mehreren Klagen wird versucht, die Rechte der Eigentümer zurückzufordern.
  • Die Verwendung von „abgeschabten“ Materialien ist eine „faire Verwendung“.

Die Wirtschaftlichkeit von Machine Learning as a Service (MLaaS) wird durch eine Vielzahl von Klagen, insbesondere gegen Anthropic und OpenAI, behindert. In allen Fällen widersprechen Eigentümer von urheberrechtlich geschütztem Material der Verwendung von Materialien, die ohne ihre Erlaubnis zum Trainieren von Modellen für maschinelles Lernen verwendet werden, und fordern eine Entschädigung dafür.

Generative KI-Modelle, die von Unternehmen wie OpenAI verwendet werden, sammeln riesige Datenmengen aus dem öffentlichen Internet, aber die Unternehmen behaupten, dass ihre Methoden eine „faire Nutzung“ öffentlich zugänglicher Materialien darstellen. Es gibt mehrere rechtliche Argumente, darunter „freiwilliges Verhalten“, das sich auf die Vorstellung bezieht, dass ein Unternehmen, das Urheberrechtsverletzungen begeht, nachweislich die Kontrolle über die Ausgabe der umstrittenen Materialien hat. Kurz gesagt: Wenn Sie OpenAI dazu bringen können, eine Gedichtzeile wörtlich herauszugeben, die unter einem Urheberrechtsvermerk veröffentlicht wurde (z. B. am Ende der Webseite, auf der sie veröffentlicht wurde), verstößt OpenAI gegen das Urheberrecht.

Im Fall der New York TimesIm Rahmen der Aktion gegen OpenAI behauptet die Zeitung, die ML-Engine habe Millionen von Daten gecrawlt und absorbiert NYT Artikel, um die beliebte KI-Engine zu informieren, und verschaffen sich so laut Text der Klage „Kosten für die massiven Investitionen der Times in ihren Journalismus“.

Urheberrechtsklagen gegen generative KI

Ähnliche Klagen wurden von Getty Images gegen Midjourney und Stability AI (Eigentümer von Stable Diffusion) eingereicht, die sich ebenfalls auf Urheberrechtsverletzungen an Bildern berufen, an denen sie die Rechte besitzen. Sammelklagen wurden auch gegen DeviantArt eingereicht, dessen Maschinenmodelle Bilder aus den Texteingabeaufforderungen der Benutzer erzeugen.

OpenAI legte dem Kommunikations- und Digitalauswahlausschuss des britischen Oberhauses Beweise vor und behauptete: „[…] Es wäre unmöglich, die heute führenden KI-Modelle zu trainieren, ohne urheberrechtlich geschütztes Material zu verwenden.“ Darin räumt das Unternehmen ein, dass seine Modelle auf Materialien trainiert werden, die sich rechtmäßig im Besitz anderer befinden, es handelt sich jedoch um eine „faire Verwendung“.

Quelle: fosstodon.org

Besonders hervorzuheben ist der Fall von Getty Images. Das Unternehmen hatte sich von jeglichen Angeboten zur Erstellung von KI-Bildern ferngehalten und dabei „echte Bedenken hinsichtlich des Urheberrechts der Ergebnisse dieser Modelle sowie ungelöste Rechteprobleme in Bezug auf die Bilder, die Bildmetadaten und die in den Bildern enthaltenen Personen“ angeführt, sagte das Unternehmen Craig Peters, CEO von Getty, in einem Artikel in Der Rand im Jahr 2022.

Allerdings kündigte das Unternehmen auf der CES 2024 „Generative AI by iStock“ an, das auf seine Bildbibliothek zurückgreift und Rechtsschutz und Nutzungsrechte für Content-Ersteller beansprucht. „Sie können sicher sein, dass die von Ihnen generierten und lizenzierten Bilder durch unsere unbegrenzte Entschädigung abgesichert sind“, heißt es nun auf der Website des Unternehmens, und dass es „ein Modell geschaffen hat, das einen Ausgleich bietet.“ […] Content-Ersteller für die Verwendung ihrer Arbeit in unserem KI-Modell, sodass sie weiterhin mehr erstellen können […] Pre-Shot-Bilder, auf die Sie sich verlassen können.“

Die Durchsetzung des Urheberrechts war im Internet schon immer problematisch, insbesondere wenn der Eigentümer veröffentlichter Medien nicht auf die Unterstützung einer Phalanx scharfsinniger Anwälte zurückgreifen kann, von denen sich Scharen eher um große Unternehmen und Organisationen als um unabhängige Content-Ersteller scharen. Seit es das Internet gibt, war die Wahl für Künstler, Musiker und sogar Teilzeit-Blogger immer die, ob sie veröffentlichen wollten oder nicht. Bringen Sie die Botschaft oder das Medium „in die Öffentlichkeit“, und es besteht die Möglichkeit, dass es von anderen ausgenutzt wird. Veröffentlichen Sie nicht digital und riskieren Sie, in Vergessenheit zu geraten. Halfway-Häuser wie robots.txt-Dateien, in denen „Keine ML-Crawler“ steht, so wie man hofft, dass Suchmaschinen die Seiten von Websites nicht indizieren („no follow, pleeease“), sind ein Glücksspiel, das dem vertraut angeborene Gutmütigkeit von großen Konzernen, die die ML-Modelle kontrollieren, wie Microsoft im Fall von Open AI.

Denn niemand hat jemals daran gelitten, großen Konzernen zu vertrauen. Rechts?

Blockchain zur Lösung von Urheberrechtsproblemen?

Sprechen mit Geschäftseingeweihter Letzte Woche schlug der CEO des Kryptowährungshandelsspezialisten Greyscale, Michael Sonnenshein, vor, Blockchain sei eine unveränderliche Möglichkeit, die Herkunft von urheberrechtlich geschütztem Material nachzuweisen. „[…] Für uns ist es einfach so offensichtlich, dass man zum Heiraten eine unwiderlegbare, unveränderliche Technologie braucht [authenticity and ownership]um einige der Probleme tatsächlich direkt anzugehen, und diese Technologie ist Blockchain, die der Krypto zugrunde liegt[currency]. […] Plötzlich werden Fragen wie Herkunft, Authentizität, Eigentum usw. sehr, sehr schnell gelöst.“

Es gibt drei Gründe, warum Sonnesheins Behauptungen falsch sind. Erstens haben wir über die Blockchain bereits eine gesicherte Authentizität: Es handelt sich um ein Ponzi-System namens NFTs, das nur von den Idioten geschätzt wird, die damit handeln. Zweitens hat die Blockchain-Veröffentlichung das Potenzial, ökologisch katastrophal zu sein. Die Coin-Mining-Industrie für Bitcoin, Ether und Monero produziert jedes Jahr den Kohlenstoffäquivalent eines mittelgroßen Landes. Beispielsweise verursacht jeder Bitcoin im Wert von 1 US-Dollar Umwelt- und Gesundheitsschäden in Höhe von 0,50 US-Dollar (hauptsächlich durch Luftverschmutzung durch die Erzeugung fossiler Brennstoffe, die Bergbaumaschinen antreiben). Drittens: Wenn wir sicherstellen, dass die Urheber „angemessen entlohnt und für das, was sie produzieren, gutgeschrieben werden“, weil Blockcahin uns zweifelsfrei sagt, wer sie sind, schließt sich der Kreis. Um die Erklärung von OpenAI in den Ausschussräumen des britischen Oberhauses noch einmal zu zitieren:

„[…] Es wäre unmöglich, die heute führenden KI-Modelle zu trainieren, ohne urheberrechtlich geschütztes Material zu verwenden.“ Was das Wort „unmöglich“ im Kontext bedeutet, ist „zu kostspielig“. Können Sie sich eine Welt vorstellen, in der große KI-as-a-Service-Anbieter jeden Content-Ersteller im Internet aufspüren und dafür bezahlen, dass er seine Arbeit zum Trainieren von KI-Modellen nutzt? Nein, das können wir auch nicht.

Als Ersteller von Inhalten besteht die einzige sichere Möglichkeit, das Urheberrecht zu schützen, darin, jedes Element digital zu verschlüsseln oder es hinter einer unüberwindbaren Barriere zu platzieren, wo es nicht entfernt werden kann. Das ist eine Paywall oder ein gleichwertiger ummauerter Garten vor der Arbeit jedes Schöpfers. Mit einem Schlag wird das Internet, das als Ort des freien und offenen Austauschs von Ideen, Wissen und vielleicht auch Kunst gedacht ist, Opfer unersättlicher Algorithmen für maschinelles Lernen, die von globalen Unternehmen kontrolliert werden.

Die Welt, in der generative KI und Urheberrecht friedlich nebeneinander existieren, könnte erreichbar sein. Was es nicht sein wird, ist entweder kostengünstig oder einfach zu erreichen.

Durchforsten der Meere zur Veranschaulichung generativer KI/ML-Urheberrechtsdiskussionsartikel.

„Golden Sky Trawler“ von 4BlueEyes Pete Williamson ist unter CC BY-NC-ND 2.0 lizenziert.


source site

Leave a Reply