Befürchtungen, dass das Pentagon „Killerroboter im Keller baut“, lösten strengere KI-Regeln aus, behauptet ein Beamter des Verteidigungsministeriums

Befürchtungen, dass das Pentagon „Killerroboter im Keller baut“, könnten zu strengeren KI-Regeln geführt haben, die vorschreiben, dass alle Systeme vor dem Einsatz genehmigt werden müssen.

Laut dem stellvertretenden stellvertretenden Verteidigungsminister hat das Verteidigungsministerium (DoD) kürzlich seine KI-Regeln aktualisiert, obwohl es „große Verwirrung“ darüber gab, wie es Selbstentscheidungsmaschinen auf dem Schlachtfeld einsetzen will.

Michael Horowitz erklärte bei einer Veranstaltung in diesem Monat, dass die „Richtlinie nicht die Entwicklung irgendwelcher Systeme verbietet“, sondern „klar macht, was erlaubt ist und was nicht“ und eine „Verpflichtung zu verantwortungsvollem Verhalten“ wahrt, während es tödliche Autonomie entwickelt Systeme.

Während das Pentagon glaubt, dass die Änderungen die Stimmung der Öffentlichkeit beruhigen sollten, sagten einige, sie seien von den Bemühungen nicht „überzeugt“.

Befürchtungen, dass das Pentagon „Killerroboter im Keller baut“, könnten zu strengeren KI-Regeln geführt haben, die vorschreiben, dass alle Systeme vor dem Einsatz genehmigt werden müssen. Abgebildet ist das unbemannte Fahrzeug MAARS, das 2015 vorgestellt wurde

Die Nachricht über die Aktualisierung der „Autonomie in Waffensystemen“ des Pentagons aus dem Jahr 2012 hat eine Online-Debatte ausgelöst, bei der viele Leute sagten: „Wenn das Pentagon sagt, dass es es nicht tut, dann tut es es.“

Dailymail.com hat das Verteidigungsministerium um einen Kommentar gebeten.

Das Verteidigungsministerium hat aggressiv darauf gedrängt, sein Arsenal mit autonomen Drohnen, Panzern und anderen Waffen zu modernisieren, die ein Ziel ohne menschliches Eingreifen auswählen und angreifen.

Mark Brakel, Direktor der Interessenvertretung Future of Life Institute (FLI), sagte gegenüber DailyMail.com: „Diese Waffen bergen ein enormes Risiko einer unbeabsichtigten Eskalation.“

Er erklärte, dass KI-gestützte Waffen etwas, beispielsweise einen Sonnenstrahl, fehlinterpretieren und als Bedrohung wahrnehmen könnten und so fremde Mächte ohne Grund angreifen könnten.

Brakel sagte, das Ergebnis könnte verheerend sein, denn „ohne sinnvolle menschliche Kontrolle ähneln KI-gesteuerte Waffen dem norwegischen Raketenunfall.“ [a near nuclear armageddon] auf Steroiden und sie könnten das Risiko von Unfällen an Brennpunkten wie der Taiwanstraße erhöhen.’

Das Verteidigungsministerium (DoD) hat kürzlich seine KI-Regeln aktualisiert, da „viel Verwirrung darüber herrscht“, wie es Selbstentscheidungsmaschinen auf dem Schlachtfeld einsetzen will

Das Verteidigungsministerium (DoD) hat kürzlich seine KI-Regeln aktualisiert, da „viel Verwirrung darüber herrscht“, wie es Selbstentscheidungsmaschinen auf dem Schlachtfeld einsetzen will

Das Verteidigungsministerium hat globale Maßnahmen zur Überwachung von KI-Waffen gefördert, indem es andere Länder aufgefordert hat, die politische Erklärung zum verantwortungsvollen militärischen Einsatz künstlicher Intelligenz und Autonomie zu unterstützen. Bis November haben 47 Länder die Initiative unterstützt.

Horowitz sagte während einer Podiumsdiskussion am 9. Januar, dass das Verteidigungsministerium sich sehr darauf konzentriert, das Vertrauen der Öffentlichkeit in die Technologie aufzubauen, und dass sich das Ministerium für die Einhaltung des humanitären Völkerrechts einsetzt.

„Der eigentliche Test einer neuen Richtlinie sollte darin bestehen, wie viele Waffen sie ausschließt oder erheblich verändert“, sagte Brakel.

„Wir haben noch keine Beweise dafür gesehen, dass Änderungen in der Richtlinie einen nennenswerten Einfluss auf die Art und Weise haben, wie Waffen entwickelt werden.“

Autonome Militärsysteme werden nicht nur von den USA entwickelt, da China und Russland über eigene KI-gestützte Arsenale verfügen, die derzeit in zwei Kriegen eingesetzt werden.

Das Pentagon kündigte im November an, dass es bis 2026 Tausende von KI-gestützten autonomen Fahrzeugen auf den Markt bringen werde, um mit Amerikas Gegnern Schritt zu halten.

Humanitäre Gruppen befürchten, dass die KI-gestützten Waffen in die falschen Hände geraten oder unbeabsichtigt einen Krieg auslösen könnten, indem sie beispielsweise Sonnenlicht mit einem Angriff verwechseln

Humanitäre Gruppen befürchten, dass die KI-gestützten Waffen in die falschen Hände geraten oder unbeabsichtigt einen Krieg auslösen könnten, indem sie beispielsweise Sonnenlicht mit einem Angriff verwechseln

Die ehrgeizige Initiative mit dem Namen „Replikator“ zielt darauf ab, „den Fortschritt bei der zu langsamen Verlagerung der US-Militärinnovation voranzutreiben, um Plattformen zu nutzen, die klein, intelligent, billig und zahlreich sind“, sagte die stellvertretende Verteidigungsministerin Kathleen Hicks im August.

„Beim Replikator selbst geht es um einen Prozess“, sagte Herr Horowitz diesen Monat. „Es geht darum herauszufinden, wie … wir Schlüsselfähigkeiten, die wir angesichts der nationalen Verteidigungsstrategie für wichtig halten, schnell einsetzen und skalieren können.“

Horowitz sagte auch, dass das Verteidigungsministerium sehr darauf bedacht sei, das Vertrauen der Öffentlichkeit in die Technologie aufzubauen, und dass sich die Abteilung zur Einhaltung des humanitären Völkerrechts verpflichtet habe.

Allerdings sind andere FLI-Mitglieder von den strengeren Regeln und der Art und Weise, wie das Pentagon sie durchsetzen wird, nicht überzeugt.

Anna Hehir, die für das FLI die Forschung zu autonomen Waffensystemen leitet, sagte gegenüber The Hill: „Es ist wirklich eine Büchse der Pandora, die wir langsam zu sehen beginnen, und es wird sehr schwer sein, dorthin zurückzukehren.“

„Ich würde dafür plädieren, dass das Pentagon den Einsatz von KI im militärischen Bereich als gleichwertig mit dem Beginn des Nuklearzeitalters ansieht“, fügte sie hinzu.

„Das ist also eine neuartige Technologie, die wir nicht verstehen.“ Und wenn wir dies im Rahmen eines Wettrüstens betrachten, wie es das Pentagon tut, dann können wir auf eine globale Katastrophe zusteuern.“

source site

Leave a Reply