Der KI-Text-zu-Bild-Generator Copilot Designer von Microsoft scheint die Ausgaben stark zu filtern, nachdem ein Microsoft-Ingenieur, Shane Jones, gewarnt hatte, dass Microsoft Warnungen ignoriert habe, dass das Tool willkürlich gewalttätige und sexuelle Bilder erstelle, berichtete CNBC.
Jones sagte gegenüber CNBC, dass er Microsoft wiederholt vor den besorgniserregenden Inhalten gewarnt habe, die er gesehen habe, während er sich ehrenamtlich an Red-Teaming-Bemühungen beteiligte, um die Schwachstellen des Tools zu testen. Microsoft habe es versäumt, das Tool herunterzufahren oder als Reaktion darauf Schutzmaßnahmen zu