NYTimes „hat jemanden dafür bezahlt, die Produkte von OpenAI zu hacken“

OpenAI forderte einen Richter auf, Teile der von der New York Times eingereichten Urheberrechtsverletzungsklage abzuweisen, mit der Begründung, dass die New York Times unter anderem jemanden angeheuert habe, um OpenAI zu hacken, um eine Grundlage für die Einreichung der Klage zu schaffen.

OpenAI reichte in der von der New York Times eingereichten Klage einen Antrag auf teilweise oder vollständige Abweisung von vier Anklagepunkten ein.

Die New York Times hat angeblich jemanden angeheuert, um OpenAI zu hacken

Zu den Erklärungen, warum einige Teile der Klage abgewiesen werden sollten, gehört die Behauptung, dass die New York Times jemanden angeheuert habe, um OpenAI gezielt auf eine Weise zu „hacken“, die ein normaler Mensch niemals tatsächlich nutzen würde, und unter Verstoß gegen die Nutzungsbedingungen.

Laut OpenAI:

„Die Wahrheit, die im Laufe dieses Falles ans Licht kommen wird, ist, dass die Times jemanden dafür bezahlt hat, die Produkte von OpenAI zu hacken. Sie brauchten Zehntausende Versuche, um die äußerst anomalen Ergebnisse zu erzielen, die Anlage J der Beschwerde ausmachen.

Dies war ihnen nur möglich, indem sie einen Fehler gezielt ausnutzten (zu dessen Behebung sich OpenAI verpflichtet hat), indem sie betrügerische Eingabeaufforderungen verwendeten, die eklatant gegen die Nutzungsbedingungen von OpenAI verstoßen.“

OpenAI behauptet weiter, dass die New York Times außergewöhnliche Schritte unternommen habe, die in keiner Weise der normalen Art der Nutzung der Produkte von OpenAI entsprächen, um „wörtliche Passagen“ aus der New York Times zu erhalten, einschließlich der Bereitstellung von Teilen des Textes, den sie versuchten um OpenAI zur Reproduktion zu bringen.

Sie bezeichnen die Behauptungen der New York Times, dass die Nachrichtenbranche durch OpenAI bedroht sei, auch als „reine Fiktion“ und sagen:

„Normale Menschen nutzen die Produkte von OpenAI nicht auf diese Weise. Die Behauptung der Times, dass die erfundenen Angriffe ihrer Auftragskiller zeigen, dass die Vierte Gewalt irgendwie durch diese Technologie gefährdet ist, ist reine Fiktion.

Das Gleiche gilt auch für die Implikation, dass die Öffentlichkeit die anormale Aktivität ihrer Agenten in großen Mengen nachahmen könnte.“

Der Teil über „die abnorme Aktivität seines Agenten“ ist eine Anspielung auf die „angeheuerte Waffe“, die OpenAI laut Angaben der New York Times eingesetzt hat, um eine Situation zu schaffen, in der OpenAI wörtlichen Text ausgibt.

Die Einreichung von OpenAI impliziert, dass die New York Times versucht, „Fakten“ und die „Sprachregeln“ zu monopolisieren, was eine Anspielung auf die Idee ist, dass die Verwendung von Textdaten zum Trainieren von KI-Modellen, die dann neue Inhalte generieren, nicht gegen das Urheberrecht verstößt, weil Das ist eine transformative Verwendung.

Konsequenz der Vorwürfe gegen NYTimes

Künstlern fällt es vor Gericht schwer, Urheberrechtsverletzungen zu argumentieren, weil KI zunehmend als transformativ angesehen wird. Dabei handelt es sich um das Prinzip, bei dem ein urheberrechtlich geschütztes Material mit einer neuen Bedeutung umgewandelt oder einer anderen Verwendung zugeführt wird, beispielsweise in einer Parodie, einem Kommentar oder indem daraus etwas völlig Neues geschaffen wird.

Die Electronic Frontier Foundation sagt zum Prinzip der transformativen Nutzung:

„Das Gesetz begünstigt ‚transformative‘ Verwendungen – Kommentare, sei es Lob oder Kritik, sind besser als reines Kopieren – aber Gerichte haben gesagt, dass selbst die Einbettung eines Teils eines bestehenden Werks in einen neuen Kontext (z. B. ein Miniaturbild in einer Bildsuchmaschine) gilt als „transformativ“. ”

Wenn die Behauptungen, die OpenAI gegenüber der New York Times erhebt, richtig sind, wie hoch sind Ihrer Meinung nach die Chancen, dass sich OpenAI durchsetzen wird und der aktuelle Status quo für KI bestehen bleibt?

Ausgewähltes Bild von Shutterstock/hakanyalicn

source site

Leave a Reply