Microsoft-Mitarbeiter sagt, KI-Tool neige dazu, „sexuell objektivierte“ Bilder zu erstellen

Ein Softwareentwickler der Microsoft Corp. sandte Briefe an den Vorstand des Unternehmens, die Gesetzgeber und die Federal Trade Commission, in denen er warnte, dass der Technologieriese nicht genug unternimmt, um sein KI-Bilderzeugungstool Copilot Designer vor der Erstellung beleidigender und gewalttätiger Inhalte zu schützen.

Shane Jones sagte, er habe eine Sicherheitslücke im neuesten DALL-E-Bildgeneratormodell von OpenAI entdeckt, die es ihm ermöglichte, Leitplanken zu umgehen, die das Tool daran hindern, schädliche Bilder zu erstellen. Das DALL-E-Modell ist in viele KI-Tools von Microsoft eingebettet, darunter Copilot Designer.

Jones sagte, er habe die Ergebnisse Microsoft gemeldet und das in Redmond, Washington, ansässige Unternehmen „wiederholt aufgefordert“, „Copilot Designer aus der öffentlichen Nutzung zu nehmen, bis bessere Sicherheitsvorkehrungen getroffen werden könnten“, heißt es in einem am Mittwoch an die FTC gesendeten Brief rezensiert von Bloomberg.

„Während Microsoft Copilot Designer öffentlich als sicheres KI-Produkt für jedermann, einschließlich Kinder jeden Alters, vermarktet, ist sich das Unternehmen intern der systemischen Probleme bewusst, bei denen das Produkt schädliche Bilder erzeugt, die für Verbraucher anstößig und unangemessen sein könnten.“ Jones schrieb. „Microsoft Copilot Designer enthält nicht die notwendigen Produktwarnungen oder Offenlegungen, damit Verbraucher sich dieser Risiken bewusst werden.“

In dem Brief an die FTC sagte Jones, Copilot Designer habe die Tendenz, in einigen der von ihm erstellten Bilder willkürlich ein „unangemessenes, sexuell objektiviertes Bild einer Frau“ zu erzeugen. Er sagte auch, dass das KI-Tool „schädliche Inhalte in einer Vielzahl anderer Kategorien erstellt habe, darunter: politische Voreingenommenheit, Alkohol- und Drogenkonsum Minderjähriger, Missbrauch von Unternehmensmarken und Urheberrechten, Verschwörungstheorien und Religion, um nur einige zu nennen.“

Die FTC bestätigte, dass sie den Brief erhalten hatte, lehnte jedoch eine weitere Stellungnahme ab.

Die Breitseite spiegelt wachsende Bedenken hinsichtlich der Tendenz von KI-Tools wider, schädliche Inhalte zu generieren. Letzte Woche sagte Microsoft, es untersuche Berichte, dass sein Copilot-Chatbot Antworten generierte, die Benutzer als störend empfanden, darunter gemischte Nachrichten zum Thema Selbstmord. Im Februar geriet das Flaggschiff-KI-Produkt von Alphabet Inc., Gemini, in Aufruhr, weil es historisch ungenaue Szenen erzeugte, als es dazu aufgefordert wurde, Bilder von Menschen zu erstellen.

Jones schrieb auch an den Ausschuss für Umwelt, Soziales und öffentliche Ordnung des Microsoft-Vorstands, dem Penny Pritzker und Reid Hoffman als Mitglieder angehören. „Ich glaube nicht, dass wir auf eine staatliche Regulierung warten müssen, um sicherzustellen, dass wir gegenüber den Verbrauchern Transparenz über KI-Risiken schaffen“, sagte Jones in dem Brief. „Aufgrund unserer Unternehmenswerte sollten wir bekannte KI-Risiken freiwillig und transparent offenlegen, insbesondere wenn das KI-Produkt aktiv an Kinder vermarktet wird.“

CNBC berichtete bereits früher über die Existenz der Briefe.

In einer Erklärung sagte Microsoft, dass es „sich verpflichtet hat, alle Bedenken der Mitarbeiter im Einklang mit unseren Unternehmensrichtlinien auszuräumen und die Bemühungen der Mitarbeiter zu schätzen weiß, unsere neueste Technologie zu untersuchen und zu testen, um deren Sicherheit weiter zu verbessern.“

OpenAI antwortete nicht auf eine Anfrage nach einem Kommentar.

Jones sagte, er habe seine Bedenken gegenüber dem Unternehmen in den letzten drei Monaten mehrmals geäußert. Im Januar schrieb er an die demokratischen Senatoren Patty Murray und Maria Cantwell, die den Staat Washington vertreten, sowie an den Repräsentanten des Repräsentantenhauses, Adam Smith. In einem Brief forderte er den Gesetzgeber auf, die Risiken „von KI-Bilderzeugungstechnologien sowie der Unternehmensführung und verantwortungsvollen KI-Praktiken der Unternehmen, die diese Produkte entwickeln und vermarkten“, zu untersuchen.

Der Gesetzgeber reagierte nicht sofort auf Anfragen nach Kommentaren.

(Mit Ausnahme der Überschrift wurde dieser Artikel nicht von NDTV-Mitarbeitern bearbeitet und wird über einen syndizierten Feed veröffentlicht.)

source site

Leave a Reply