Forscher haben einen neuen Weg zum Hacken von KI-Assistenten entdeckt, der eine überraschend altmodische Methode verwendet: ASCII-Kunst. Es stellt sich heraus, dass chatbasierte große Sprachmodelle wie GPT-4 beim Versuch, diese Darstellungen zu verarbeiten, so abgelenkt sind, dass sie vergessen, Regeln durchzusetzen, die schädliche Reaktionen blockieren, wie etwa solche, die Anweisungen zum Bombenbau geben.
ASCII-Kunst wurde in den 1970er Jahren populär, als die Einschränkungen von Computern und Druckern