Moderne militärische Operationen, ob Kampf, medizinische oder Katastrophenhilfe, erfordern sehr schnell komplexe Entscheidungen, und KI könnte verwendet werden, um sie zu treffen.
Die Defense Advanced Research Projects Agency (DARPA) hat ein neues Programm gestartet, das darauf abzielt, künstliche Intelligenz in den Entscheidungsprozess einzuführen.
Dies liegt daran, dass in einer realen Notsituation, die möglicherweise sofortige Entscheidungen darüber erfordert, wer Hilfe bekommt und wer nicht, die Antwort nicht immer klar ist und die Menschen sich über die richtige Vorgehensweise nicht einig sind – KI wird eine schnelle Entscheidung treffen.
Die neueste DARPA-Initiative mit dem Namen „In the Moment“ wird eine neue Technologie beinhalten, die schwierige Entscheidungen in Stresssituationen treffen könnte, indem Live-Analysen von Daten verwendet werden, wie z.
Es kommt daher, dass sich das US-Militär zunehmend auf Technologie stützt, um menschliche Fehler zu reduzieren, wobei die DARPA argumentiert, dass die Beseitigung menschlicher Vorurteile aus der Entscheidungsfindung „Leben retten“ wird.
Laut DARPA wird die neue KI zwei Jahre für das Training und weitere 18 Monate für die Vorbereitung benötigen, bevor sie voraussichtlich in einem realen Szenario eingesetzt wird.
„KI ist großartig darin, Dinge zu zählen“, sagte Sally A. Applin, eine Expertin für das Zusammenspiel von KI und Ethik, gegenüber der Washington Post und fügte hinzu: „Ich denke, sie könnte einen Präzedenzfall schaffen, durch den die Entscheidung über das Leben eines Menschen in die Hände gelegt wird ein Gerät.’
Moderne militärische Operationen, ob Kampf, medizinische oder Katastrophenhilfe, erfordern sehr schnell komplexe Entscheidungen, und KI könnte verwendet werden, um sie zu treffen. Bild einer Bildagentur
Laut DARPA ist die Technologie nur ein Teil des Problems, wenn es darum geht, auf KI-Entscheidungsfindung umzusteigen, der Rest besteht darin, menschliches Vertrauen aufzubauen.
“Da KI-Systeme in der Zusammenarbeit mit Menschen immer fortschrittlicher werden, ist es von entscheidender Bedeutung, ein angemessenes menschliches Vertrauen in die Fähigkeit der KI aufzubauen, fundierte Entscheidungen zu treffen”, erklärte ein Sprecher der militärischen Forschungsorganisation.
“Die Erfassung der Schlüsselmerkmale, die der fachkundigen menschlichen Entscheidungsfindung in dynamischen Umgebungen zugrunde liegen, und die rechnerische Darstellung dieser Daten in algorithmischen Entscheidungsträgern kann ein wesentliches Element sein, um sicherzustellen, dass Algorithmen unter schwierigen Umständen vertrauenswürdige Entscheidungen treffen.”
DARPA kündigte Anfang dieses Monats das In the Moment (ITM)-Programm an, dessen erste Aufgabe darin besteht, mit vertrauenswürdigen menschlichen Entscheidungsträgern zusammenzuarbeiten, um die besten Optionen zu erkunden, wenn es keine offensichtliche vereinbarte richtige Antwort gibt.
Die Defense Advanced Research Projects Agency (DARPA) hat ein neues Programm gestartet, das darauf abzielt, künstliche Intelligenz in den Entscheidungsprozess einzuführen. Bild einer Bildagentur
„ITM unterscheidet sich von typischen KI-Entwicklungsansätzen, die eine menschliche Vereinbarung über die richtigen Ergebnisse erfordern“, sagte Matt Turek, ITM-Programmmanager.
“Das Fehlen einer richtigen Antwort in schwierigen Szenarien hindert uns daran, herkömmliche KI-Evaluierungstechniken einzusetzen, die implizit menschliche Zustimmung erfordern, um Ground-Truth-Daten zu erstellen.”
Beispielsweise können Algorithmen, die von selbstfahrenden Autos verwendet werden, auf Ground Truth für richtige und falsche Fahrreaktionen basieren – basierend auf Verkehrszeichen und Straßenregeln.
Wenn sich die Regeln nicht ändern, können hartcodierte Risikowerte verwendet werden, um die KI zu trainieren, aber das funktioniert nicht für das Verteidigungsministerium (DoD).
„Das Einbacken von einheitlichen Risikowerten wird aus DoD-Perspektive nicht funktionieren, da sich Kampfsituationen schnell entwickeln und sich die Absicht des Kommandanten von Szenario zu Szenario ändert“, sagte Turek.
„Das Verteidigungsministerium benötigt rigorose, quantifizierbare und skalierbare Ansätze zur Bewertung und zum Aufbau algorithmischer Systeme für schwierige Entscheidungsfindungen, bei denen keine objektive Grundwahrheit verfügbar ist.
“Schwierige Entscheidungen sind solche, bei denen vertrauenswürdige Entscheidungsträger anderer Meinung sind, es keine richtige Antwort gibt und Unsicherheit, Zeitdruck und widersprüchliche Werte zu erheblichen Herausforderungen bei der Entscheidungsfindung führen.”
Um das Problem zu lösen, lässt sich DARPA von der medizinischen Bildgebungsanalyse inspirieren.
Auf diesem Gebiet wurden Techniken entwickelt, um Systeme zu bewerten, selbst wenn erfahrene Experten anderer Meinung sind.
„Aufbauend auf Erkenntnissen aus der medizinischen Bildgebung wird ITM einen quantitativen Rahmen entwickeln, um die Entscheidungsfindung durch Algorithmen in sehr schwierigen Bereichen zu bewerten“, sagte Turek.
„Wir werden realistische, herausfordernde Entscheidungsfindungsszenarien erstellen, die Antworten von vertrauenswürdigen Menschen hervorrufen, um eine Verteilung der wichtigsten Entscheidungsträgerattribute zu erfassen.
“Dann werden wir einen Entscheidungsfindungsalgorithmus denselben herausfordernden Szenarien aussetzen und seine Antworten in der Referenzverteilung abbilden, um ihn mit den vertrauenswürdigen menschlichen Entscheidungsträgern zu vergleichen.”
Das Programm hat vier technische Bereiche, die verschiedene Aspekte der Forschung abdecken.
Der erste befasst sich mit der Erstellung einer Charakterisierung von Entscheidungsträgern, die darauf abzielt, Schlüsselattribute von Menschen zu identifizieren, die mit der Entscheidungsfindung in diesem Bereich beauftragt sind.
Die zweite besteht darin, eine Punktzahl zwischen einer menschlichen Entscheidungsfindung und einem Algorithmus zu erstellen – mit dem Ziel, Algorithmusentscheidungen zu erstellen, denen Menschen vertrauen können.
Die dritte wird darin bestehen, ein Programm zu erstellen, das auf diesen Bewertungen basiert und bewertet werden kann, und die vierte darin besteht, Richtlinien und Praktiken für seine Verwendung zu erstellen.
Laut DARPA wird es dreieinhalb Jahre dauern, bis die Endphase erreicht ist, wobei die ersten zwei Jahre damit verbracht werden, eine grundlegende KI aufzubauen und sie in verschiedenen Szenarien zu testen.
In der zweiten Hälfte, die die letzten 18 Monate umfasst, werden die Fähigkeiten der KI erweitert und bei komplexeren Ereignissen mit mehreren Opfern getestet.
Die NATO arbeitet auch daran, KI-Assistenten zu entwickeln, die bei der Entscheidungsfindung helfen können, in diesem Fall in Zusammenarbeit mit der Johns Hopkins University einen Triage-Assistenten.
Oberst Sohrab Dalal, Leiter der medizinischen Abteilung des Supreme Allied Command Transformation der NATO, sagte der Washington Post, die Triage könne eine Auffrischung vertragen.
Dies ist der Prozess, bei dem Kliniker Soldaten besuchen, um zu beurteilen, wie dringend die Versorgung ist, und der sich in den letzten 200 Jahren nicht wesentlich geändert hat.
Sein Team wird NATA-Verletzungsdaten sowie Opferbewertungssysteme, Vorhersagen und Eingaben zum Zustand eines Patienten verwenden, um auszuwählen, wer zuerst behandelt werden sollte.
“Es ist ein wirklich guter Einsatz künstlicher Intelligenz”, sagte Dalal, ein ausgebildeter Arzt. „Unter dem Strich werden die Patienten dadurch besser behandelt [and] Leben retten.’