Der Wettlauf um die Verhinderung des „Worst-Case-Szenarios für maschinelles Lernen“

Dave Willner hat die Entwicklung der schlimmsten Dinge im Internet aus der ersten Reihe verfolgt.

Er begann 2008 bei Facebook zu arbeiten, als Social-Media-Unternehmen noch dabei waren, ihre Regeln festzulegen. Als Leiter der Inhaltspolitik des Unternehmens war es Herr Willner, der vor mehr als einem Jahrzehnt die ersten offiziellen Community-Standards von Facebook verfasste und damit, wie er sagte, eine informelle einseitige Liste darstellte, die größtenteils auf ein Verbot von „Hitler und Nacktheit“ hinauslief Menschen“ in einen mittlerweile umfangreichen Katalog von Beleidigungen, Verbrechen und anderen Grotesken ein, die auf allen Plattformen von Meta verboten sind.

Als sich das San Franciscoer Labor für künstliche Intelligenz OpenAI letztes Jahr auf die Einführung von Dall-E vorbereitete, einem Tool, mit dem jeder sofort ein Bild erstellen kann, indem er es in wenigen Worten beschreibt, ernannte das Unternehmen Herrn Willner zum Leiter seines Vertrauens und Sicherheit. Zunächst bedeutete das, alle Bilder und Eingabeaufforderungen zu sichten, die von den Filtern von Dall-E als potenzielle Verstöße gekennzeichnet wurden – und Wege zu finden, um potenzielle Verstöße am Erfolg zu hindern.

Es dauerte nicht lange, bis Herr Willner über eine bekannte Bedrohung nachdachte.

So wie Kinderschänder jahrelang Facebook und andere große Technologieplattformen genutzt hatten, um Bilder von sexuellem Kindesmissbrauch zu verbreiten, versuchten sie nun, mithilfe von Dall-E völlig neue Bilder zu erstellen. „Ich bin nicht überrascht, dass die Leute so etwas versucht haben“, sagte Herr Willner. „Aber um es ganz klar zu sagen: Die Leute bei OpenAI waren es auch nicht.“

Trotz aller jüngsten Diskussionen über die hypothetischen existenziellen Risiken der generativen KI sind Experten der Meinung, dass es diese unmittelbare Bedrohung ist – Kinderräuber, die bereits neue KI-Tools nutzen –, die die ungeteilte Aufmerksamkeit der Branche verdient.

In einem neu veröffentlichten Artikel des Stanford Internet Observatory und Thorn, einer gemeinnützigen Organisation, die die Verbreitung von sexuellem Kindesmissbrauch im Internet bekämpft, stellten Forscher fest, dass es seit letztem August einen kleinen, aber deutlichen Anstieg der Zahl fotorealistischer KI-generierter Kinder gab Im Dark Web kursierendes Material über sexuellen Missbrauch.

Laut den Forschern von Thorn hat sich dies größtenteils in Bildern manifestiert, die das Abbild realer Opfer verwenden, sie aber in neuen Posen visualisieren, während sie neuen und immer ungeheuerlicheren Formen sexueller Gewalt ausgesetzt sind. Die Forscher fanden heraus, dass die meisten dieser Bilder nicht von Dall-E, sondern von Open-Source-Tools generiert wurden, die mit wenigen Schutzmaßnahmen entwickelt und veröffentlicht wurden.

In ihrer Arbeit berichteten die Forscher, dass weniger als 1 Prozent des in einer Stichprobe bekannter Raubgemeinschaften gefundenen Materials über sexuellen Kindesmissbrauch fotorealistische, KI-generierte Bilder zu sein schienen. Doch angesichts der rasanten Entwicklung dieser generativen KI-Tools gehen die Forscher davon aus, dass ihre Zahl nur noch zunehmen wird.

„Innerhalb eines Jahres werden wir in diesem Bereich einen sehr problematischen Zustand erreichen“, sagte David Thiel, der Cheftechnologe des Stanford Internet Observatory, der das Papier gemeinsam mit Thorns Direktor für Datenwissenschaft, Dr., verfasst hat. Rebecca Portnoff und Thorns Forschungsleiterin Melissa Stroebel. „Das ist absolut das Worst-Case-Szenario für maschinelles Lernen, das ich mir vorstellen kann.“

Dr. Portnoff beschäftigt sich seit mehr als einem Jahrzehnt mit maschinellem Lernen und Kindersicherheit.

Für sie spricht die Vorstellung, dass ein Unternehmen wie OpenAI bereits über dieses Thema nachdenkt, dafür, dass sich dieser Bereich zumindest in einer schnelleren Lernkurve befindet als die Social-Media-Giganten in ihren Anfängen.

„Die Haltung ist heute anders“, sagte Dr. Portnoff.

Dennoch sagte sie: „Wenn ich die Uhr zurückdrehen könnte, wäre es ein Jahr her.“

Im Jahr 2003 verabschiedete der Kongress ein Gesetz zum Verbot „computergenerierter Kinderpornografie“ – ein seltenes Beispiel für die Zukunftssicherheit des Kongresses. Allerdings war die Erstellung solcher Bilder damals sowohl unerschwinglich teuer als auch technisch aufwendig.

Die Kosten und die Komplexität der Erstellung dieser Bilder sind stetig gesunken, haben sich jedoch im vergangenen August mit der öffentlichen Einführung von Stable Diffusion geändert, einem kostenlosen Open-Source-Text-zu-Bild-Generator, der von Stability AI, einem in London ansässigen Unternehmen für maschinelles Lernen, entwickelt wurde.

In seiner ersten Version setzte Stable Diffusion der Art der Bilder, die sein Modell erzeugen konnte, kaum Grenzen, darunter auch solchen mit Nacktbildern. „Wir vertrauen den Menschen und wir vertrauen der Gemeinschaft“, sagte der Vorstandsvorsitzende des Unternehmens, Emad Mostaque, im vergangenen Herbst gegenüber der New York Times.

In einer Erklärung sagte Motez Bishara, der Kommunikationsdirektor von Stability AI, dass das Unternehmen den Missbrauch seiner Technologie für „illegale oder unmoralische“ Zwecke, einschließlich der Erstellung von Material über sexuellen Missbrauch von Kindern, verboten habe. „Wir unterstützen nachdrücklich die Bemühungen der Strafverfolgung gegen diejenigen, die unsere Produkte für illegale oder schändliche Zwecke missbrauchen“, sagte Herr Bishara.

Da es sich bei dem Modell um ein Open-Source-Modell handelt, können Entwickler den Code herunterladen und auf ihren eigenen Computern modifizieren und damit unter anderem realistische Pornos für Erwachsene generieren. In ihrer Arbeit stellten die Forscher von Thorn und dem Stanford Internet Observatory fest, dass Raubtiere diese Modelle so angepasst haben, dass sie auch in der Lage sind, sexuell eindeutige Bilder von Kindern zu erstellen. Die Forscher demonstrieren in dem Bericht eine bereinigte Version davon, indem sie ein KI-generiertes Bild einer Frau so modifizieren, dass es wie ein Bild von Audrey Hepburn als Kind aussieht.

​​Stability AI hat seitdem Filter veröffentlicht, die versuchen, das zu blockieren, was das Unternehmen als „unsichere und unangemessene Inhalte“ bezeichnet. Und neuere Versionen der Technologie wurden auf der Grundlage von Datensätzen erstellt, die Inhalte ausschließen, die als „nicht sicher für die Arbeit“ gelten. Aber laut Herrn Thiel verwenden Menschen immer noch das ältere Modell, um Bilder zu produzieren, die das neuere verbietet.

Im Gegensatz zu Stable Diffusion ist Dall-E nicht Open Source und nur über die OpenAI-eigene Schnittstelle zugänglich. Das Modell wurde außerdem mit vielen weiteren Sicherheitsvorkehrungen entwickelt, um sogar die Erstellung legaler Nacktbilder von Erwachsenen zu verbieten. „Die Models selbst neigen dazu, sexuelle Gespräche mit Ihnen zu verweigern“, sagte Herr Willner. „Wir tun das hauptsächlich aus Vorsicht bei einigen dieser dunkleren sexuellen Themen.“

Das Unternehmen hat außerdem schon früh Leitplanken eingeführt, um zu verhindern, dass Personen bestimmte Wörter oder Ausdrücke in ihren Dall-E-Eingabeaufforderungen verwenden. Aber Herr Willner sagte, Raubtiere versuchen immer noch, das System auszutricksen, indem sie das verwenden, was Forscher „visuelle Synonyme“ nennen – kreative Begriffe, um Leitplanken zu umgehen und gleichzeitig die Bilder zu beschreiben, die sie erzeugen wollen.

„Wenn man dem Modell das Wissen darüber entzieht, wie Blut aussieht, weiß es immer noch, wie Wasser aussieht, und es weiß, was die Farbe Rot ist“, sagte Herr Willner. „Dieses Problem besteht auch bei sexuellen Inhalten.“

Thorn verfügt über ein Tool namens Safer, das Bilder auf Kindesmissbrauch scannt und Unternehmen dabei hilft, sie an das National Center for Missing and Exploited Children zu melden, das eine vom Bund benannte Clearingstelle für mutmaßliches Material über sexuellen Kindesmissbrauch betreibt. OpenAI verwendet Safer, um Inhalte zu scannen, die Personen in das Bearbeitungstool von Dall-E hochladen. Das ist nützlich, um echte Bilder von Kindern aufzunehmen, aber Herr Willner sagte, dass selbst die ausgefeiltesten automatisierten Tools Schwierigkeiten haben könnten, KI-generierte Bilder genau zu identifizieren.

Dies ist ein aufkommendes Problem unter Kindersicherheitsexperten: dass KI nicht nur dazu verwendet wird, neue Bilder von echten Kindern zu erstellen, sondern auch, um explizite Bilder von Kindern zu erstellen, die nicht existieren.

Dieser Inhalt ist an sich illegal und muss gemeldet werden. Diese Möglichkeit hat jedoch auch zu Bedenken geführt, dass die Bundes-Clearingstelle möglicherweise noch mehr mit gefälschten Bildern überschwemmt wird, was die Bemühungen zur Identifizierung echter Opfer erschweren würde. Allein im letzten Jahr gingen bei der CyberTipline des Zentrums rund 32 Millionen Meldungen ein.

„Wenn wir anfangen, Berichte zu erhalten, werden wir dann in der Lage sein, es zu erfahren? Werden sie markiert oder können sie von Bildern echter Kinder unterschieden werden?“ sagte Yiota Souras, der General Counsel des National Center for Missing and Exploited Children.

Zumindest einige dieser Antworten müssen nicht nur von KI-Unternehmen wie OpenAI und Stability AI kommen, sondern auch von Unternehmen, die Messaging-Apps oder Social-Media-Plattformen betreiben, wie Meta, dem Top-Reporter der CyberTipline.

Im vergangenen Jahr kamen allein über Facebook, WhatsApp und Instagram mehr als 27 Millionen Tipps. Technologieunternehmen verwenden bereits ein Klassifizierungssystem, das von einer Branchenallianz namens Tech Coalition entwickelt wurde, um mutmaßliches Material über sexuellen Kindesmissbrauch nach dem offensichtlichen Alter des Opfers und der Art der dargestellten Handlungen zu kategorisieren. In ihrer Arbeit argumentieren die Forscher von Thorn und Stanford, dass diese Klassifizierungen erweitert werden sollten, um auch zu berücksichtigen, ob ein Bild computergeneriert wurde.

In einer Erklärung gegenüber der New York Times sagte Antigone Davis, Global Head of Safety bei Meta: „Wir arbeiten daran, bei unserem Ansatz für KI-generierte Inhalte zielgerichtet und evidenzbasiert vorzugehen, so wie wir verstehen, wann die Einbeziehung identifizierender Informationen dies tun würde.“ am nützlichsten sind und wie diese Informationen übermittelt werden sollten.“ Frau Davis sagte, das Unternehmen werde mit dem National Center for Missing and Exploited Children zusammenarbeiten, um den besten Weg nach vorne zu finden.

Über die Verantwortung von Plattformen hinaus argumentieren Forscher, dass KI-Unternehmen selbst noch mehr tun können. Konkret könnten sie ihren Modellen beibringen, keine Bilder von kindlicher Nacktheit zu erstellen und Bilder eindeutig zu identifizieren, die von künstlicher Intelligenz erzeugt wurden, während sie sich im Internet bewegen. Dies würde bedeuten, ein Wasserzeichen in diese Bilder einzubrennen, das schwieriger zu entfernen ist als diejenigen, die Stability AI oder OpenAI bereits implementiert haben.

Während Gesetzgeber versuchen, KI zu regulieren, sehen Experten die Vorschrift einer Form von Wasserzeichen oder Herkunftsverfolgung als Schlüssel zur Bekämpfung nicht nur von Material über sexuellen Missbrauch von Kindern, sondern auch von Fehlinformationen.

„Man ist hier nur so gut wie der kleinste gemeinsame Nenner, deshalb will man ein Regulierungssystem“, sagte Hany Farid, Professor für digitale Forensik an der University of California in Berkeley.

Professor Farid ist für die Entwicklung von PhotoDNA verantwortlich, einem 2009 von Microsoft eingeführten Tool, das mittlerweile viele Technologieunternehmen nutzen, um bekannte Bilder von sexuellem Kindesmissbrauch automatisch zu finden und zu blockieren. Herr Farid sagte, die Technologiegiganten seien zu langsam, um diese Technologie nach ihrer Entwicklung zu implementieren, was dazu geführt habe, dass die Geißel des Materials über sexuellen Kindesmissbrauch jahrelang offen schwelte. Derzeit arbeitet er mit einer Reihe von Technologieunternehmen zusammen, um einen neuen technischen Standard für die Nachverfolgung von KI-generierten Bildern zu schaffen. Stability AI gehört zu den Unternehmen, die die Implementierung dieses Standards planen.

Eine weitere offene Frage ist, wie das Gerichtssystem Klagen gegen Urheber von KI-generiertem Material über sexuellen Kindesmissbrauch behandeln wird – und welche Haftung KI-Unternehmen haben werden. Obwohl das Gesetz gegen „computergenerierte Kinderpornografie“ seit zwei Jahrzehnten in Kraft ist, wurde es nie vor Gericht geprüft. Ein früheres Gesetz, mit dem versucht wurde, das zu verbieten, was damals als virtuelle Kinderpornografie bezeichnet wurde, wurde 2002 vom Obersten Gerichtshof wegen Verletzung der Meinungsfreiheit abgewiesen.

Mitglieder der Europäischen Kommission, des Weißen Hauses und des Justizausschusses des US-Senats wurden über die Ergebnisse von Stanford und Thorn informiert. Es sei von entscheidender Bedeutung, sagte Thiel, dass Unternehmen und Gesetzgeber Antworten auf diese Fragen finden, bevor die Technologie noch weiter voranschreitet und Dinge wie Full-Motion-Video einschließt. „Bis dahin müssen wir es schaffen“, sagte Herr Thiel.

Julie Cordua, die Geschäftsführerin von Thorn, sagte, die Ergebnisse der Forscher sollten als Warnung – und als Chance – gesehen werden. Im Gegensatz zu den Social-Media-Giganten, die Jahre zu spät erkannt haben, wie ihre Plattformen Kindesmissbrauch ermöglichen, bleibt laut Frau Cordua noch Zeit, um zu verhindern, dass das Problem des KI-induzierten Kindesmissbrauchs außer Kontrolle gerät.

„Wir wissen, was diese Unternehmen tun sollten“, sagte Frau Cordua. „Wir müssen es einfach tun.“

source site

Leave a Reply