Neues Korruptionstool bedeutet Ärger für KI-Text-zu-Bild-Technologie

Professionelle Künstler und Fotografen, die sich darüber ärgern, dass Firmen, die generative KI nutzen, ihre Arbeit zum Trainieren ihrer Technologie nutzen, könnten bald eine wirksame Möglichkeit haben, darauf zu reagieren, ohne den Gang vor Gericht.

Mit der Einführung des ChatGPT-Chatbots von OpenAI vor fast einem Jahr trat die generative KI in Erscheinung. Das Tool ist äußerst geschickt darin, sich auf eine sehr natürliche, menschenähnliche Art und Weise zu unterhalten, aber um diese Fähigkeit zu erlangen, musste es anhand von Massendaten aus dem Internet trainiert werden.

Ähnliche generative KI-Tools sind auch in der Lage, Bilder aus Textaufforderungen zu erzeugen, aber wie ChatGPT werden sie durch das Scrapen von im Web veröffentlichten Bildern trainiert.

Das bedeutet, dass die Werke von Künstlern und Fotografen – ohne Zustimmung oder Vergütung – von Technologiefirmen für die Entwicklung ihrer generativen KI-Tools genutzt werden.

Um dem entgegenzuwirken, hat ein Forscherteam ein Tool namens Nightshade entwickelt, das das Trainingsmodell verwirren kann und dazu führt, dass es als Reaktion auf Eingabeaufforderungen fehlerhafte Bilder ausspuckt.

Nightshade „vergiftet“ die Trainingsdaten, indem es unsichtbare Pixel zu einem Kunstwerk hinzufügt, bevor es ins Internet hochgeladen wird, wie es kürzlich in einem Artikel von MIT Technology Review beschrieben wurde.

„Die Verwendung zur ‚Vergiftung‘ dieser Trainingsdaten könnte künftigen Iterationen bildgenerierender KI-Modelle wie DALL-E, Midjourney und Stable Diffusion schaden, indem einige ihrer Ergebnisse unbrauchbar werden – Hunde werden zu Katzen, Autos zu Kühen usw und so weiter“, heißt es in dem MIT-Bericht und fügte hinzu, dass die Forschung hinter Nightshade zur Begutachtung durch Fachkollegen eingereicht wurde.

Während die Bilderzeugungstools bereits beeindruckend sind und sich ständig verbessern, hat sich die Art und Weise, wie sie trainiert werden, als umstritten erwiesen, da viele der Entwickler der Tools derzeit mit Klagen von Künstlern konfrontiert sind, die behaupten, dass ihre Werke ohne Erlaubnis oder Bezahlung verwendet wurden.

Ben Zhao, Professor an der University of Chicago, der das Forschungsteam hinter Nightshade leitete, sagte, dass ein solches Tool dazu beitragen könnte, das Machtgleichgewicht wieder auf die Künstler zu verlagern, und damit einen Warnschuss an Technologiefirmen abfeuert, die Urheberrechte und geistiges Eigentum ignorieren.

„Die Datensätze für große KI-Modelle können aus Milliarden von Bildern bestehen. Je mehr vergiftete Bilder in das Modell geschabt werden können, desto mehr Schaden wird die Technik anrichten“, heißt es in dem Bericht von MIT Technology Review.

Wenn Nightshade veröffentlicht wird, plant das Team, es als Open Source bereitzustellen, damit andere es verfeinern und effektiver machen können.

Das Team hinter Nightshade war sich des Störpotenzials bewusst und sagte, es sollte als „letzte Verteidigung für Content-Ersteller gegen Web-Scraper“ eingesetzt werden, die ihre Rechte missachten.

Um das Problem zu lösen, hat der DALL-E-Entwickler OpenAI kürzlich damit begonnen, Künstlern zu erlauben, ihre Werke aus seinen Trainingsdaten zu entfernen. Der Prozess wurde jedoch als äußerst mühsam beschrieben, da der Künstler eine Kopie jedes einzelnen Bildes senden muss zusammen mit einer Beschreibung dieses Bildes entfernt werden soll, wobei für jede Anfrage eine eigene Anwendung erforderlich ist.

Eine deutliche Vereinfachung des Entfernungsprozesses könnte Künstler davon abhalten, sich für die Verwendung eines Tools wie Nightshade zu entscheiden, was auf lange Sicht zu viel mehr Problemen für OpenAI und andere führen könnte.

Empfehlungen der Redaktion






source site

Leave a Reply