Was wäre, wenn wir ChatGPT nach den gleichen Standards wie Claudine Gay durchführen würden?

Wenn Sie die Augen zusammenkneifen und den Kopf neigen, können Sie einige Ähnlichkeiten in den verschwommenen Formen von Harvard und OpenAI erkennen. Jede davon ist eine führende Institution für die Bildung von Köpfen, egal ob real oder künstlich – Harvard bildet intelligente Menschen aus, während OpenAI intelligente Maschinen entwickelt – und jede war in den letzten Tagen gezwungen, eine gemeinsame Behauptung zurückzuweisen. Nämlich, dass sie von intellektuellen Dieben vertreten werden.

Im vergangenen Monat warfen der konservative Aktivist Christopher Rufo und der Journalist Christopher Brunet der damaligen Harvard-Präsidentin Claudine Gay vor, in ihrer Dissertation kurze Passagen ohne Quellenangabe kopiert zu haben. Gay gab später zu, „in meinen wissenschaftlichen Schriften Fälle vorgekommen zu sein, in denen einiges Material die Sprache anderer Gelehrter ohne entsprechende Quellenangabe kopierte“, und bat um Korrekturen. Etwa zwei Wochen später, Der New York Times verklagte Microsoft und OpenAI mit der Begründung, dass die Chatbots der Unternehmen gegen das Urheberrecht verstoßen hätten, indem sie ohne Erlaubnis der Nachrichtenredaktion menschliches Schreiben zum Trainieren generativer KI-Modelle nutzten.

Die beiden Fälle haben Gemeinsamkeiten, doch viele der Reaktionen darauf könnten unterschiedlicher nicht sein. Typische akademische Standards für Plagiate, einschließlich der Harvard-Standards, betrachten nicht zugeschriebene Paraphrasierungen oder glanzlose Zitate als schweres Vergehen, und Gay – die immer noch mit den Folgen ihrer weithin kritisierten Aussage vor dem Kongress und einer Welle rassistischer Kommentare zu kämpfen hat – trat schließlich von ihrem Amt zurück. (Ich sollte beachten, dass ich meinen Abschluss in Harvard gemacht habe, bevor Gay Präsident der Universität wurde.) Inzwischen Mal‘ und ähnliche Klagen dürften nach Meinung vieler Rechtsexperten scheitern, da der Rechtsstandard für Urheberrechtsverletzungen im Allgemeinen die Verwendung geschützter Texte für „transformative“ Zwecke zulässt, die im Wesentlichen neu sind. Vielleicht gehört dazu auch das Training von KI-Modellen, die riesige Mengen geschriebener Texte aufnehmen und deren Muster, Inhalte und Informationen reproduzieren. KI-Unternehmen haben anerkannt und verteidigt, dass sie menschliche Arbeit zum Trainieren ihrer Programme nutzen. (OpenAI hat das gesagt MalDer Fall ist „unbegründet“. Microsoft reagierte nicht sofort auf eine Anfrage nach einem Kommentar.)

Es gibt offensichtlich einen Unterschied zwischen einem prominenten Universitätsleiter und einem prominenten Chatbot. Die Überschneidung zwischen den beiden Situationen ist jedoch bedeutsam und erfordert Klarheit darüber, was Diebstahl, angemessene Kreditwürdigkeit und Integrität ausmacht. Obwohl sie nützliche Heuristiken für die Beurteilung akademischer Arbeit und generativer KI bieten, sind weder Plagiate noch Urheberrechte ein intrinsischer Standard – beides sind Abkürzungen für die Beurteilung von Originalität. Betrachtet man beides zusammen, wird deutlich, dass sich die eigentliche Debatte hinter den politischen Motiven und gekränkten Egos um den Grad an Transparenz und Ehrlichkeit dreht, den die Gesellschaft von mächtigen Menschen und Institutionen erwartet, und darum, wie man sie zur Rechenschaft ziehen kann.

Zwischen den Kontroversen besteht eine gewisse kognitive Dissonanz. Die prominentesten Leute, die Gay für wissenschaftliches Plagiat tadeln – Harvard definiert es als Übernahme „einer Idee oder Sprache von jemand anderem, ohne diese Quelle angemessen anzugeben“ –, haben der generativen KI-Ideensammlung nicht den Krieg erklärt. Einer der schärfsten Kritiker von Gay, der Milliardär Bill Ackman, kürzlich sagte dass „KI der ultimative Plagiator ist.“ Aber er hat letztes Jahr auch eine beträchtliche Investition in Alphabet getätigt – weil er, wie Ackman damals sagte, glaubt, dass das Unternehmen ein „dominierender Akteur“ in diesem Bereich sein wird, teilweise aufgrund seines „enormen Zugriffs“ auf Kundendaten, den er hat vorgeschlagen, könnte legal als KI-Trainingsmaterial verwendet werden. Brunet, der mitgeholfen hat, die ersten Plagiatsvorwürfe gegen Gay zu erheben, verwendet mit Eifer die von ChatGPT verfassten Zusammenfassungen seiner eigenen Arbeit. (Weder Ackman noch Brunet antworteten auf Anfragen nach Kommentaren.)

Rufo seinerseits, der konservative Aktivist, der die Kampagne zur Entfernung von Gay angeführt hat, hat sich mit der generativen KI auseinandergesetzt, obwohl seine Beschwerden in den Kulturkriegen verwurzelt sind – dass die Technologie zu „wird“wachte auf.“ Rufo, der per E-Mail erreicht wurde, äußerte sich nicht zu der Vorstellung, dass KI geistiges Eigentum stiehlt, und sagte lediglich, dass „es eine wichtige Gemeinsamkeit zwischen Claudine Gay und ChatGPT gibt: Beide sind keine verlässlichen Quellen für akademische Arbeit.“

Gleichzeitig haben Gays Verteidiger argumentiert, dass die Fehler in ihrer Arbeit auf Vernachlässigung und schlampige Zitate hinauslaufen und nicht auf Böswilligkeit oder Betrug, und haben vorgeschlagen, dass gemeinsame Standards für Plagiate mit etwas Nachsichtigkeit des Urheberrechts aktualisiert werden sollten. Einige ihr Befürworter gehören zu den am heftigsten Kritiker nennen generativen KI-Diebstahl.

Unabhängig von Ihrer Position geht es in der Debatte über Gays Rücktritt um Werte, nicht um Taten – nicht darum, ob Gay Materialien ohne Namensnennung wiederverwendet hat, sondern darum, wie folgenreich dies war. Es handelt sich um eine Debatte über die Definition und Bestrafung unterschiedlicher Diebstahlsgrade. Selbst wenn ein Gericht entscheidet, dass das Trainieren eines KI-Modells an einem Buch ohne die Erlaubnis des Autors „transformativ“ ist, bedeutet das nicht, dass das Modell ohne die Erlaubnis des Autors an einem Buch trainiert wurde und dass das Modell das Schreiben von Büchern insgesamt automatisieren könnte . Vielleicht ist es an der Zeit, den Plagiatsstandard von Harvard auf die generative KI anzuwenden, anstatt den Kampf zwischen Künstlern und Chatbots auf das Urheberrecht auszurichten.

Dieselben gegen Gay erhobenen Anschuldigungen würden, wenn man sie auf ChatGPT oder ein anderes großes Sprachmodell anwenden würde, die Technologie mit ziemlicher Sicherheit für irrsinnig hohes Maß an Plagiaten für schuldig befunden. Wie Christopher Sprigman, Juraprofessor an der New York University, kürzlich feststellte: „Das Urheberrecht gibt uns die Freiheit, Fakten und sogar Teile des Ausdrucks zu kopieren, die für die korrekte Berichterstattung über Fakten erforderlich sind“, da die Weitergabe von Fakten und Kontext der Öffentlichkeit zugute kommt. Anti-Plagiat-Regeln, schrieb er, „verfolgen den gegenteiligen Ansatz und handeln so, als ob die erste Person, die eine Tatsache zu Papier bringt, einen moralischen Anspruch darauf hat, der stark genug ist, um schwere Strafen für die Verwendung ohne Quellenangabe nach sich zu ziehen.“

Diese Regeln existieren, um den Autoren die gebührende Anerkennung zu geben und zu verhindern, dass die Leser getäuscht werden, argumentiert Sprigman. Chatbots verletzen beides in einem unvorstellbaren Ausmaß, indem sie die Arbeit der Autoren bei unendlicher Nachfrage und bei unendlicher Wiederholung paraphrasieren und replizieren. Es ist bekannt, dass sprach- und bildgenerierende KI-Programme Sätze und Bilder in ihren Trainingsdaten fast genau reproduzieren, obwohl OpenAI sagt, dass das Problem „selten“ ist. Ob diese Reproduktionen, auch wenn sie wörtlich sind, gegen US-amerikanisches Recht verstoßen, wird streitig sein; dass sie ein Plagiat darstellen würden, wenn sie in der Dissertation eines Universitätspräsidenten gefunden würden, steht außer Zweifel. KI-Unternehmen sagen häufig, dass ihre Chatbots wie Kinder nur aus urheberrechtlich geschütztem Material lernen – aber die Kernfunktion der Technologie besteht darin, ohne Zustimmung oder Zitierung zu reproduzieren, was bedeutet, dass diese Silikonform des „Lernens“ immer noch ein Plagiat darstellt. Man könnte argumentieren, dass es für die Gesellschaft genauso vorteilhaft ist, Chatbots zu erlauben, Fakten wiederzuverwenden, wie es Menschen erlaubt, dies zu tun. Aber im Gegensatz zu einem Doktoranden, der sich abmüht, drohen Chatbots, ihre unzitierten Quellen aus dem Geschäft zu bringen – und im Gegensatz zu einem Akademiker, einem Journalisten oder einem anderen Menschen mit Selbstachtung sind sich Chatbots hinsichtlich richtiger und falscher Informationen gleichermaßen sicher, sind aber nicht in der Lage, zwischen ihnen zu unterscheiden zwei.

Aktuelle generative KI-Modelle als Plagiatsmaschinen umzudeuten – nicht nur als Software, die Schülern beim Plagiieren hilft, sondern als Software, die einfach durch Ausführen plagiiert – würde nicht erfordern, dass man sie meidet oder gesetzlich aus ihrer Existenz verbannt; Es würde auch nicht negieren, dass die Programme ein unglaubliches Potenzial haben, alle Arten von Arbeit zu unterstützen. Aber diese Neuformulierung würde den zugrunde liegenden Wert verdeutlichen, dem das Urheberrecht einen unvollkommenen Mechanismus zur Lösung bietet: Es ist falsch, die Arbeit anderer zu nehmen und davon zu profitieren, ohne sie zu würdigen. Im Fall der generativen KI, die das Potenzial hat, auf Kosten der Autoren Einnahmen in Milliardenhöhe zu generieren, könnte Abhilfe nicht nur in der Zitierung, sondern auch in der Entschädigung bestehen. Nur weil Plagiate nicht illegal sind, heißt das nicht, dass sie in allen Kontexten akzeptabel sind.

Letzten Monat erklärte OpenAI gleichzeitig, dass es „unmöglich sei, die führenden KI-Modelle von heute zu trainieren, ohne urheberrechtlich geschütztes Material zu verwenden“, und dass das Unternehmen der Ansicht sei, bei einem solchen Training keine Gesetze verletzt zu haben. Dies sollte nicht als positive Veranschaulichung der Milde der Urheberrechtsgesetze verstanden werden, die technologische Innovationen zulassen, sondern als ein unverfrorenes Eingeständnis der Schuld am Plagiieren. Jetzt ist es an der Öffentlichkeit, ein angemessenes Urteil zu fällen.


source site

Leave a Reply