Das Pentagon führt eine Technologie ein, um zu verhindern, dass KI-betriebene Tötungsmaschinen auf dem Schlachtfeld aufgrund robotertäuschender visueller „Geräusche“ unkontrolliert agieren.

Beamte des Pentagon haben Alarm geschlagen wegen „einzigartiger Klassen von Schwachstellen für KI oder autonome Systeme“, die sie hoffentlich durch neue Forschungsergebnisse beheben können.

Das Programm mit dem Namen „Guaranteing AI Robustness against Deception“ (GARD) hat seit 2022 die Aufgabe zu ermitteln, wie visuelle Daten oder andere elektronische Signaleingaben für die KI durch die kalkulierte Einführung von Rauschen manipuliert werden könnten.

Informatiker eines Verteidigungsunternehmens von GARD haben mit kaleidoskopischen Patches experimentiert, die KI-basierte Systeme dazu verleiten sollen, falsche Ausweise zu erstellen.

„Durch das Hinzufügen von Rauschen zu einem Bild oder einem Sensor kann man im Wesentlichen vielleicht einen nachgeschalteten Algorithmus für maschinelles Lernen zerstören“, erklärte ein hochrangiger Pentagon-Beamter, der die Forschung leitete, am Mittwoch.

Die Nachricht kommt, als Befürchtungen, dass das Pentagon „Killerroboter im Keller baut“, angeblich zu strengeren KI-Regeln für das US-Militär geführt haben – die vorschreiben, dass alle Systeme vor dem Einsatz genehmigt werden müssen.

Informatikern des Verteidigungsunternehmens MITRE Corp. gelang es, visuelle Geräusche zu erzeugen, die eine KI mit Äpfeln in einem Lebensmittelregal, einer im Freien zurückgelassenen Tüte und sogar Menschen verwechselte

Ein Bus voller Zivilisten könnte beispielsweise von einer KI fälschlicherweise als Panzer identifiziert werden, wenn er mit dem richtigen „visuellen Rauschen“ gekennzeichnet wäre, wie ein nationaler Sicherheitsreporter mit der Website ClearanceJobs als Beispiel vorschlug

Forscher des bescheiden ausgestatteten GARD-Programms haben seit 2022 51.000 US-Dollar für die Untersuchung von visuellen und Signallärmtaktiken ausgegeben, wie Prüfungen des Pentagons zeigen

Ein Bus voller Zivilisten könnte beispielsweise von einer KI fälschlicherweise als Panzer identifiziert werden, wenn er mit dem richtigen „visuellen Rauschen“ gekennzeichnet wäre, wie ein nationaler Sicherheitsreporter von ClearanceJobs als Beispiel vorschlug. Das Pentagon-Programm hat seit 2022 51.000 US-Dollar für Ermittlungen ausgegeben

„Mit der Kenntnis dieses Algorithmus kann man manchmal auch physisch realisierbare Angriffe erzeugen“, fügte der Beamte Matt Turek, stellvertretender Direktor des Information Innovation Office der Defense Advanced Research Projects Agency (DARPA), hinzu.

Technisch gesehen ist es möglich, den Algorithmus einer KI in geschäftskritische Fehler zu „tricksen“ – indem die KI verschiedene gemusterte Aufnäher oder Aufkleber fälschlicherweise für ein echtes physisches Objekt erkennt, das nicht wirklich vorhanden ist.

Ein Bus voller Zivilisten könnte beispielsweise von einer KI fälschlicherweise als Panzer identifiziert werden, wenn er mit dem richtigen „visuellen Rauschen“ gekennzeichnet wäre, wie ein nationaler Sicherheitsreporter mit der Website ClearanceJobs als Beispiel vorschlug.

Kurz gesagt, solche billigen und leichten „Lärm“-Taktiken könnten dazu führen, dass wichtige militärische KI während einer kritischen Mission feindliche Kombattanten fälschlicherweise als Verbündete klassifiziert und umgekehrt.

Forscher des bescheiden ausgestatteten GARD-Programms haben seit 2022 51.000 US-Dollar für die Untersuchung von visuellen und Signallärmtaktiken ausgegeben, wie Prüfungen des Pentagons zeigen.

Eine Studie von MITRE aus dem Jahr 2020 veranschaulichte, wie visuelles Rauschen, das für das menschliche Auge lediglich dekorativ oder belanglos erscheinen kann, wie ein „Magic Eye“-Poster aus den 1990er Jahren, von der KI als festes Objekt interpretiert werden kann.  Oben bringt das visuelle Rauschen von MITRE eine KI dazu, Äpfel zu sehen

Eine Studie von MITRE aus dem Jahr 2020 veranschaulichte, wie visuelles Rauschen, das für das menschliche Auge lediglich dekorativ oder belanglos erscheinen kann, wie ein „Magic Eye“-Poster aus den 1990er Jahren, von der KI als festes Objekt interpretiert werden kann. Oben bringt das visuelle Rauschen von MITRE eine KI dazu, Äpfel zu sehen

Michael Horowitz, stellvertretender stellvertretender US-Verteidigungsminister für Truppenentwicklung und neue Fähigkeiten, erklärte auf einer Veranstaltung im Januar, dass die neue Pentagon-Richtlinie „die Entwicklung solcher Truppen nicht verbietet“. [AI] „Aber es wird klargestellt, was erlaubt ist und was nicht.“  Oben ein fiktiver Killerroboter aus der Terminator-Filmreihe

Michael Horowitz, stellvertretender stellvertretender US-Verteidigungsminister für Truppenentwicklung und neue Fähigkeiten, erklärte auf einer Veranstaltung im Januar, dass die neue Pentagon-Richtlinie „die Entwicklung solcher Truppen nicht verbietet“. [AI] „Aber es wird klargestellt, was erlaubt ist und was nicht.“ Oben ein fiktiver Killerroboter aus der Terminator-Filmreihe

Zu ihren öffentlichen Arbeiten gehört eine Studie aus den Jahren 2019 und 2020, die zeigt, wie visuelles Rauschen, das für das menschliche Auge lediglich dekorativ oder belanglos erscheinen kann, wie ein „Magic Eye“-Poster aus den 1990er Jahren, von der KI als festes Objekt interpretiert werden kann.

Informatikern des Verteidigungsunternehmens MITRE Corporation gelang es, visuelle Geräusche zu erzeugen, die eine KI mit Äpfeln in einem Lebensmittelregal, einer im Freien zurückgelassenen Tüte und sogar mit Menschen verwechselte.

„Ob es sich dabei um physisch realisierbare Angriffe oder Rauschmuster handelt, die KI-Systemen hinzugefügt werden“, sagte Turek am Mittwoch, „das GARD-Programm hat hochmoderne Abwehrmaßnahmen gegen diese entwickelt.“

„Einige dieser Tools und Funktionen wurden CDAO zur Verfügung gestellt [the Defense Department’s Chief Digital and AI Office],‘ so Turek.

Das Pentagon gründete 2022 die CDAO; Es dient als Drehscheibe, um eine schnellere Einführung von KI und verwandten maschinellen Lerntechnologien im gesamten Militär zu ermöglichen.

Das Verteidigungsministerium (DoD) hat kürzlich seine KI-Regeln aktualisiert, obwohl „viel Verwirrung darüber herrscht“, wie es Selbstentscheidungsmaschinen auf dem Schlachtfeld einsetzen will, so der stellvertretende stellvertretende US-Verteidigungsminister für Truppenentwicklung und neue Fähigkeiten, Michael Horowitz

Horowitz erklärte bei einer Veranstaltung im Januar dieses Jahres, dass die „Richtlinie die Entwicklung solcher Produkte nicht verbietet“. [AI] Systeme“, sondern „klar machen, was erlaubt ist und was nicht“ und eine „Verpflichtung zu verantwortungsvollem Verhalten“ wahren, während tödliche autonome Systeme entwickelt werden.

Während das Pentagon glaubt, dass die Änderungen die Stimmung der Öffentlichkeit beruhigen sollten, sagten einige, sie seien von den Bemühungen nicht „überzeugt“.

Mark Brakel, Direktor der Interessenvertretung Future of Life Institute (FLI), sagte im Januar gegenüber DailyMail.com: „Diese Waffen bergen ein enormes Risiko einer unbeabsichtigten Eskalation.“

Er erklärte, dass KI-betriebene Waffen etwas, beispielsweise einen Sonnenstrahl, falsch interpretieren und als Bedrohung wahrnehmen könnten und so fremde Mächte ohne Grund und ohne absichtlichen gegnerischen „visuellen Lärm“ angreifen könnten.

Brakel sagte, das Ergebnis könnte verheerend sein, denn „ohne sinnvolle menschliche Kontrolle ähneln KI-gesteuerte Waffen dem norwegischen Raketenunfall.“ [a near nuclear armageddon] auf Steroiden und sie könnten das Risiko von Unfällen an Brennpunkten wie der Taiwanstraße erhöhen.’

Dailymail.com hat das Verteidigungsministerium um einen Kommentar gebeten.

Das Verteidigungsministerium hat aggressiv darauf gedrängt, sein Arsenal mit autonomen Drohnen, Panzern und anderen Waffen zu modernisieren, die ein Ziel ohne menschliches Eingreifen auswählen und angreifen.

source site

Leave a Reply