Microsoft wird beschuldigt, ein KI-Tool verkauft zu haben, das gewalttätige, sexuelle Bilder an Kinder ausspuckt

Der KI-Text-zu-Bild-Generator Copilot Designer von Microsoft scheint die Ausgaben stark zu filtern, nachdem ein Microsoft-Ingenieur, Shane Jones, gewarnt hatte, dass Microsoft Warnungen ignoriert habe, dass das Tool willkürlich gewalttätige und sexuelle Bilder erstelle, berichtete CNBC.

Jones sagte gegenüber CNBC, dass er Microsoft wiederholt vor den besorgniserregenden Inhalten gewarnt habe, die er gesehen habe, während er sich ehrenamtlich an Red-Teaming-Bemühungen beteiligte, um die Schwachstellen des Tools zu testen. Microsoft habe es versäumt, das Tool herunterzufahren oder als Reaktion darauf Schutzmaßnahmen zu ergreifen, sagte Jones, oder auch nur Offenlegungen zu veröffentlichen, um die Bewertung des Produkts zu ändern, damit es im Android Store verfügbar sei.

Stattdessen hat Microsoft ihn offenbar lediglich dazu verwiesen, das Problem an OpenAI zu melden, den Hersteller des DALL-E-Modells, das die Ausgaben von Copilot Designer antreibt.

OpenAI habe nie reagiert, sagte Jones, deshalb habe er immer drastischere Schritte unternommen, um die Öffentlichkeit auf Probleme aufmerksam zu machen, die er in Microsofts Tool gefunden habe.

Er begann damit, einen offenen Brief zu veröffentlichen, in dem er OpenAI auf LinkedIn aufrief. Als ihm die Rechtsabteilung von Microsoft dann sagte, er solle es abschaffen, tat er, was ihm gesagt wurde, schickte aber auch Briefe an Gesetzgeber und andere Interessenvertreter, was in allen Richtungen Alarm auslöste. Dazu gehören Briefe, die heute an die Federal Trade Commission und an den Vorstand von Microsoft gesendet wurden, berichtete CNBC.

In Jones‘ Brief an die Vorsitzende der FTC, Lina Khan, sagte Jones, dass Microsoft und OpenAI sich dieser Probleme seit mindestens Oktober bewusst seien und „das Produkt weiterhin an „Jeder. Überall. Jedes Gerät“ vermarkten werden“, sofern die FTC nicht eingreift.

Bloomberg überprüfte auch den Brief von Jones und berichtete, dass Jones der FTC mitgeteilt habe, dass Copilot Designer derzeit zwar als sicher für Kinder vermarktet wird, in einigen der von ihm erstellten Bilder jedoch zufällig „unangemessene, sexuell objektivierte Bilder einer Frau“ erzeugt. Und es kann auch verwendet werden, um „schädliche Inhalte in einer Vielzahl anderer Kategorien zu generieren, darunter: politische Voreingenommenheit, Alkohol- und Drogenkonsum Minderjähriger, Missbrauch von Unternehmensmarken und Urheberrechten, Verschwörungstheorien und Religion, um nur einige zu nennen.“

In einem separaten Brief forderte Jones außerdem den Vorstand von Microsoft auf, Microsofts KI-Entscheidungsfindung zu untersuchen und „eine unabhängige Überprüfung der verantwortungsvollen Meldeprozesse von Microsoft für KI-Vorfälle“ durchzuführen. Dies ist notwendig, nachdem Jones „außerordentliche Anstrengungen unternommen hat, um zu versuchen, dieses Problem intern anzusprechen“, einschließlich direkter Berichterstattung sowohl an Microsofts Office of Responsible AI als auch an „das für Copilot Designer verantwortliche leitende Management“, berichtete CNBC.

Ein Microsoft-Sprecher bestätigte nicht, ob Microsoft derzeit Schritte zum Filtern von Bildern unternimmt, aber der Versuch von Ars, von Jones geteilte Eingabeaufforderungen zu replizieren, führte zu Fehlermeldungen. Stattdessen würde ein Microsoft-Sprecher gegenüber CNBC nur die gleiche Aussage teilen:

Wir sind bestrebt, alle Bedenken unserer Mitarbeiter im Einklang mit unseren Unternehmensrichtlinien auszuräumen und schätzen die Bemühungen der Mitarbeiter, unsere neueste Technologie zu studieren und zu testen, um deren Sicherheit weiter zu verbessern. Wenn es um Sicherheitsumgehungen oder Bedenken geht, die potenzielle Auswirkungen auf unsere Dienste oder unsere Partner haben könnten, haben wir in das Produkt integrierte Benutzer-Feedback-Tools und robuste interne Meldekanäle eingerichtet, um alle Probleme ordnungsgemäß zu untersuchen, zu priorisieren und zu beheben, was wir dem empfohlen haben Mitarbeiter nutzen, damit wir seine Bedenken angemessen validieren und testen können. Wir haben auch Treffen mit der Produktleitung und unserem Office of Responsible AI ermöglicht, um diese Berichte zu prüfen, und integrieren dieses Feedback kontinuierlich, um unsere bestehenden Sicherheitssysteme zu stärken und allen ein sicheres und positives Erlebnis zu bieten.

OpenAI reagierte nicht auf die Bitte von Ars um einen Kommentar.

source site

Leave a Reply