Ein neues Bildschutztool wurde entwickelt, um KI-Programme zu vergiften, die mit nicht autorisierten Daten trainiert werden, und den Urhebern eine neue Möglichkeit zu geben, ihre Stücke zu schützen und Systemen Schaden zuzufügen, von denen sie sagen, dass sie ihre Werke stehlen.
Nightshade, ein neues Tool eines Teams der University of Chicago, fügt Daten in die Pixel eines Bildes ein, die KI-Bildgeneratoren beschädigen, die das Internet auf der Suche nach Bildern zum Trainieren durchsuchen, was dazu führt, dass sie nicht richtig funktionieren. Ein KI-Programm könnte ein durch Nightshade geschütztes Bild eines Hundes beispielsweise als Katze interpretieren, ein Foto eines Autos könnte als Kuh erkannt werden und so weiter, was zu einer Fehlfunktion der Maschine führen könnte, so die Forschung des Teams.
WAS IST KÜNSTLICHE INTELLIGENZ (KI)?
„Nightshades Ziel ist es nicht, zu zerbrechen [AI] Modelle“, Ben Zhao, schrieb der Professor der University of Chicago, der das Nightshade-Team leitet. „Damit sollen Anreize für unautorisierte Datenschulungen geschaffen und legitim lizenzierte Inhalte für Schulungen gefördert werden.“
„Für Modelle, die Opt-outs befolgen und nicht schaben, gibt es nur minimale oder gar keine Auswirkungen“, fuhr er fort.
KÜNSTLERIN VERLAGT KI-BILDGENERATOREN, WEIL SIE IHRE ARBEIT ANGEBLICH ZUM TRAINIEREN VON BOTS VERWENDET HABEN:
WEITERE DIGITALE ORIGINALE VON FOX NEWS SEHEN SIE HIER
Text-zu-Bild-KI-Generatoren wie Midjourney und Stable Diffusion erstellen Bilder basierend auf den Eingabeaufforderungen der Benutzer. Die Programme werden mit Texten und Bildern aus dem Internet und anderen Quellen trainiert.
Karla Ortiz, eine in San Francisco ansässige bildende Künstlerin, die angibt, dass ihre Kunstwerke zum Trainieren der Technologie verwendet wurden, reichte im Januar eine Klage gegen Midjourney und Stable Diffusion wegen Urheberrechtsverletzung und Verstößen gegen das Recht auf Veröffentlichung ein. Die Angeklagten beantragten im April die Abweisung des Verfahrens, doch der für den Fall zuständige Bezirksrichter erlaubte den Klägern nach einer Anhörung im Juli, eine neue Beschwerde einzureichen.
„Es fühlt sich an, als hätte jemand alles, wofür man gearbeitet hat, genommen und jemand anderem erlaubt, damit zu machen, was er will, um Profit zu machen“, sagte Ortiz im Mai gegenüber Fox News. „Jemand kann meine Arbeit nachahmen, weil ein Unternehmen es ihnen erlaubt.“
DAS LETZTE LACHEN: WIE COMEDIANS vorhaben, den Spieß umzudrehen, wenn die KI ihr Material verkratzt
Eine weitere Klägerin der Klage, die in Nashville lebende Künstlerin Kelly McKernan, bemerkte im Internet ähnliche Bilder wie sie selbst, die offenbar durch die Eingabe ihres Namens in KI-Bild-Engines im vergangenen Jahr entstanden waren.
„Letztendlich profitiert jemand von meiner Arbeit“, sagte McKernan. „Wir sind hier David gegen Goliath.“
Um sich dagegen zu wehren, dass KI-Maschinen ihre künstlerischen Stile kapern, arbeiteten McKernan und Ortiz mit Zhao und dem Team der University of Chicago an einem weiteren Kunstschutzprojekt namens Glaze, einem „System, das menschliche Künstler durch die Störung der Stilnachahmung schützen soll“. zu seiner Website.
Wenn Glaze, der Vorgänger von Nightshade, auf ein Bild angewendet wird, verändert es die Art und Weise, wie KI-Maschinen das Bild interpretieren, ohne die Art und Weise zu verändern, wie es für den Menschen aussieht. Aber im Gegensatz zu Nightshade führt Glaze nicht zu Fehlfunktionen des Modells.
Wie Deepfakes kurz davor stehen, die politische Verantwortung zu zerstören
Dennoch stehen Künstler vor der Herausforderung, ihre Werke vor KI zu schützen.
„Das Problem besteht natürlich darin, dass diese Ansätze nichts für die Milliarden von Inhalten tun, die bereits online veröffentlicht wurden“, sagte Hany Farid, Professor an der University of California, Berkeley’s School of Information, in einer Erklärung gegenüber Fox News. „Die andere Einschränkung bei dieser Art von Ansatz besteht darin, dass die Ersteller ihre Inhalte veröffentlicht haben und keinen Schutz haben, wenn sie gehackt werden – und das wird auch der Fall sein.“
„Das heißt, es entsteht ein etwas falsches Gefühl des Schutzes“, fuhr er fort.
Allerdings habe kein großer KI-Bildgenerator Nightshade gehackt, sagte Zhao.
KLICKEN SIE HIER, UM DIE FOX NEWS-APP ZU ERHALTEN
„Uns sind keine Techniken bekannt, die es erkennen könnten“, er schrieb auf X. „Wenn wir welche finden, werden wir Nightshade aktualisieren, um dem zu entgehen.“
Das Team der University of Chicago, Stability AI und Midjourney antworteten nicht auf Anfragen nach Kommentaren.
Um das vollständige Interview mit Ortiz anzusehen, klicken Sie hier.