KI könnte menschliche Militärkommandanten ersetzen, wenn es darum geht, Entscheidungen über Leben und Tod zu treffen

Moderne militärische Operationen, ob Kampf, medizinische oder Katastrophenhilfe, erfordern sehr schnell komplexe Entscheidungen, und KI könnte verwendet werden, um sie zu treffen.

Die Defense Advanced Research Projects Agency (DARPA) hat ein neues Programm gestartet, das darauf abzielt, künstliche Intelligenz in den Entscheidungsprozess einzuführen.

Dies liegt daran, dass in einer realen Notsituation, die möglicherweise sofortige Entscheidungen darüber erfordert, wer Hilfe bekommt und wer nicht, die Antwort nicht immer klar ist und die Menschen sich über die richtige Vorgehensweise nicht einig sind – KI wird eine schnelle Entscheidung treffen.

Die neueste DARPA-Initiative mit dem Namen „In the Moment“ wird eine neue Technologie beinhalten, die schwierige Entscheidungen in Stresssituationen treffen könnte, indem Live-Analysen von Daten verwendet werden, wie z.

Es kommt daher, dass sich das US-Militär zunehmend auf Technologie stützt, um menschliche Fehler zu reduzieren, wobei die DARPA argumentiert, dass die Beseitigung menschlicher Vorurteile aus der Entscheidungsfindung „Leben retten“ wird.

Laut DARPA wird die neue KI zwei Jahre für das Training und weitere 18 Monate für die Vorbereitung benötigen, bevor sie voraussichtlich in einem realen Szenario eingesetzt wird.

„KI ist großartig darin, Dinge zu zählen“, sagte Sally A. Applin, eine Expertin für das Zusammenspiel von KI und Ethik, gegenüber der Washington Post und fügte hinzu: „Ich denke, sie könnte einen Präzedenzfall schaffen, durch den die Entscheidung über das Leben eines Menschen in die Hände gelegt wird ein Gerät.’

Moderne militärische Operationen, ob Kampf, medizinische oder Katastrophenhilfe, erfordern sehr schnell komplexe Entscheidungen, und KI könnte verwendet werden, um sie zu treffen. Bild einer Bildagentur

Laut DARPA ist die Technologie nur ein Teil des Problems, wenn es darum geht, auf KI-Entscheidungsfindung umzusteigen, der Rest besteht darin, menschliches Vertrauen aufzubauen.

“Da KI-Systeme in der Zusammenarbeit mit Menschen immer fortschrittlicher werden, ist es von entscheidender Bedeutung, ein angemessenes menschliches Vertrauen in die Fähigkeit der KI aufzubauen, fundierte Entscheidungen zu treffen”, erklärte ein Sprecher der militärischen Forschungsorganisation.

“Die Erfassung der Schlüsselmerkmale, die der fachkundigen menschlichen Entscheidungsfindung in dynamischen Umgebungen zugrunde liegen, und die rechnerische Darstellung dieser Daten in algorithmischen Entscheidungsträgern kann ein wesentliches Element sein, um sicherzustellen, dass Algorithmen unter schwierigen Umständen vertrauenswürdige Entscheidungen treffen.”

DARPA kündigte Anfang dieses Monats das In the Moment (ITM)-Programm an, dessen erste Aufgabe darin besteht, mit vertrauenswürdigen menschlichen Entscheidungsträgern zusammenzuarbeiten, um die besten Optionen zu erkunden, wenn es keine offensichtliche vereinbarte richtige Antwort gibt.

Die Defense Advanced Research Projects Agency (DARPA) hat ein neues Programm gestartet, das darauf abzielt, künstliche Intelligenz in den Entscheidungsprozess einzuführen.  Bild einer Bildagentur

Die Defense Advanced Research Projects Agency (DARPA) hat ein neues Programm gestartet, das darauf abzielt, künstliche Intelligenz in den Entscheidungsprozess einzuführen. Bild einer Bildagentur

„ITM unterscheidet sich von typischen KI-Entwicklungsansätzen, die eine menschliche Vereinbarung über die richtigen Ergebnisse erfordern“, sagte Matt Turek, ITM-Programmmanager.

“Das Fehlen einer richtigen Antwort in schwierigen Szenarien hindert uns daran, herkömmliche KI-Evaluierungstechniken einzusetzen, die implizit menschliche Zustimmung erfordern, um Ground-Truth-Daten zu erstellen.”

Beispielsweise können Algorithmen, die von selbstfahrenden Autos verwendet werden, auf Ground Truth für richtige und falsche Fahrreaktionen basieren – basierend auf Verkehrszeichen und Straßenregeln.

Wenn sich die Regeln nicht ändern, können hartcodierte Risikowerte verwendet werden, um die KI zu trainieren, aber das funktioniert nicht für das Verteidigungsministerium (DoD).

Der vollautonome Black-Hawk-Helikopter hebt erstmals ohne Pilot ab

Ein vollautonomer Black-Hawk-Helikopter ist erstmals ohne einen menschlichen Piloten an Bord in den Himmel über den USA aufgestiegen.

Als Partnerschaft zwischen Lockheed Martin Sikorsky und der Defense Armed Research Projects Agency (DARPA) startete es am 5. Februar in Fort Campbell in Kentucky.

Ohne jemanden an Bord absolvierte die UH-60A Black Hawk einen 30-minütigen Flug über der Einrichtung der US-Armee, wobei ein zweiter Flug am 7. Februar stattfand.

Es wird mit einem optional pilotierten Cockpit geliefert, das vom Piloten- in den autonomen Modus umgeschaltet werden muss, sodass ein Bordcomputergehirn das Fahrzeug steuern kann.

Während des Fluges wurde dem autonomen Piloten des Aircrew Labor In-Cockpit Automation System (ALIAS) eine Reihe von simulierten Hindernissen präsentiert, die es zu überwinden galt.

Es musste eine Reihe von Pedalumdrehungen, Manövern und Geradeausfahrten ausführen, bevor es wieder perfekt auf der Landebahn von Fort Campbell landete – ohne menschliches Eingreifen.

Der autonome Hubschrauber könnte verwendet werden, um Nachschub in gefährliche Kriegsgebiete zu liefern oder Soldaten zu bergen, ohne einen Piloten zu riskieren.

„Das Einbacken von einheitlichen Risikowerten wird aus DoD-Perspektive nicht funktionieren, da sich Kampfsituationen schnell entwickeln und sich die Absicht des Kommandanten von Szenario zu Szenario ändert“, sagte Turek.

„Das Verteidigungsministerium benötigt rigorose, quantifizierbare und skalierbare Ansätze zur Bewertung und zum Aufbau algorithmischer Systeme für schwierige Entscheidungsfindungen, bei denen keine objektive Grundwahrheit verfügbar ist.

“Schwierige Entscheidungen sind solche, bei denen vertrauenswürdige Entscheidungsträger anderer Meinung sind, es keine richtige Antwort gibt und Unsicherheit, Zeitdruck und widersprüchliche Werte zu erheblichen Herausforderungen bei der Entscheidungsfindung führen.”

Um das Problem zu lösen, lässt sich DARPA von der medizinischen Bildgebungsanalyse inspirieren.

Auf diesem Gebiet wurden Techniken entwickelt, um Systeme zu bewerten, selbst wenn erfahrene Experten anderer Meinung sind.

„Aufbauend auf Erkenntnissen aus der medizinischen Bildgebung wird ITM einen quantitativen Rahmen entwickeln, um die Entscheidungsfindung durch Algorithmen in sehr schwierigen Bereichen zu bewerten“, sagte Turek.

„Wir werden realistische, herausfordernde Entscheidungsfindungsszenarien erstellen, die Antworten von vertrauenswürdigen Menschen hervorrufen, um eine Verteilung der wichtigsten Entscheidungsträgerattribute zu erfassen.

“Dann werden wir einen Entscheidungsfindungsalgorithmus denselben herausfordernden Szenarien aussetzen und seine Antworten in der Referenzverteilung abbilden, um ihn mit den vertrauenswürdigen menschlichen Entscheidungsträgern zu vergleichen.”

Das Programm hat vier technische Bereiche, die verschiedene Aspekte der Forschung abdecken.

Der erste befasst sich mit der Erstellung einer Charakterisierung von Entscheidungsträgern, die darauf abzielt, Schlüsselattribute von Menschen zu identifizieren, die mit der Entscheidungsfindung in diesem Bereich beauftragt sind.

Die zweite besteht darin, eine Punktzahl zwischen einer menschlichen Entscheidungsfindung und einem Algorithmus zu erstellen – mit dem Ziel, Algorithmusentscheidungen zu erstellen, denen Menschen vertrauen können.

Die dritte wird darin bestehen, ein Programm zu erstellen, das auf diesen Bewertungen basiert und bewertet werden kann, und die vierte darin besteht, Richtlinien und Praktiken für seine Verwendung zu erstellen.

Laut DARPA wird es dreieinhalb Jahre dauern, bis die Endphase erreicht ist, wobei die ersten zwei Jahre damit verbracht werden, eine grundlegende KI aufzubauen und sie in verschiedenen Szenarien zu testen.

In der zweiten Hälfte, die die letzten 18 Monate umfasst, werden die Fähigkeiten der KI erweitert und bei komplexeren Ereignissen mit mehreren Opfern getestet.

Die NATO arbeitet auch daran, KI-Assistenten zu entwickeln, die bei der Entscheidungsfindung helfen können, in diesem Fall in Zusammenarbeit mit der Johns Hopkins University einen Triage-Assistenten.

Oberst Sohrab Dalal, Leiter der medizinischen Abteilung des Supreme Allied Command Transformation der NATO, sagte der Washington Post, die Triage könne eine Auffrischung vertragen.

Dies ist der Prozess, bei dem Kliniker Soldaten besuchen, um zu beurteilen, wie dringend die Versorgung ist, und der sich in den letzten 200 Jahren nicht wesentlich geändert hat.

Sein Team wird NATA-Verletzungsdaten sowie Opferbewertungssysteme, Vorhersagen und Eingaben zum Zustand eines Patienten verwenden, um auszuwählen, wer zuerst behandelt werden sollte.

“Es ist ein wirklich guter Einsatz künstlicher Intelligenz”, sagte Dalal, ein ausgebildeter Arzt. „Unter dem Strich werden die Patienten dadurch besser behandelt [and] Leben retten.’

WIE KÜNSTLICHE INTELLIGENZEN MIT NEURONALEN NETZWERKEN LERNEN

KI-Systeme stützen sich auf künstliche neuronale Netze (KNNs), die versuchen, die Funktionsweise des Gehirns zu simulieren, um zu lernen.

ANNs können darauf trainiert werden, Muster in Informationen zu erkennen – einschließlich Sprache, Textdaten oder visuellen Bildern – und sind die Grundlage für eine Vielzahl von Entwicklungen in der KI in den letzten Jahren.

Herkömmliche KI verwendet Eingaben, um einen Algorithmus über ein bestimmtes Thema zu „lehren“, indem sie ihn mit riesigen Mengen an Informationen füttert.

KI-Systeme stützen sich auf künstliche neuronale Netze (KNNs), die versuchen, die Funktionsweise des Gehirns zu simulieren, um zu lernen.  ANNs können darauf trainiert werden, Muster in Informationen zu erkennen – einschließlich Sprache, Textdaten oder visuellen Bildern

KI-Systeme stützen sich auf künstliche neuronale Netze (KNNs), die versuchen, die Funktionsweise des Gehirns zu simulieren, um zu lernen. ANNs können darauf trainiert werden, Muster in Informationen zu erkennen – einschließlich Sprache, Textdaten oder visuellen Bildern

Zu den praktischen Anwendungen gehören die Sprachübersetzungsdienste von Google, die Gesichtserkennungssoftware von Facebook und die bildverändernden Live-Filter von Snapchat.

Die Eingabe dieser Daten kann sehr zeitaufwändig sein und ist auf eine Art von Wissen beschränkt.

Eine neue Generation von ANNs namens Adversarial Neural Networks lässt den Verstand zweier KI-Bots gegeneinander antreten, wodurch sie voneinander lernen können.

Dieser Ansatz soll den Lernprozess beschleunigen und die von KI-Systemen erzeugte Ausgabe verfeinern.

source site

Leave a Reply