Die spielerische KI von Meta kann wie ein Mensch Allianzen schließen und brechen

Das Erlernen von Diplomatie ist aus mehreren Gründen eine große Sache. Es sind nicht nur mehrere Spieler beteiligt, die gleichzeitig Züge machen, sondern jeder Runde geht eine kurze Verhandlung voraus, bei der die Spieler zu zweit chatten, um zu versuchen, Allianzen zu bilden oder sich mit Rivalen zusammenzutun. Nach dieser Verhandlungsrunde entscheiden die Spieler dann, welche Figuren sie bewegen – und ob sie einen Deal einhalten oder nicht.

An jedem Punkt im Spiel modelliert Cicero, wie sich die anderen Spieler wahrscheinlich verhalten werden, basierend auf dem Zustand des Spielbretts und den vorherigen Gesprächen mit ihnen. Anschließend wird herausgearbeitet, wie die Spieler zum gegenseitigen Nutzen zusammenarbeiten können, und es werden Botschaften generiert, die darauf abzielen, diese Ziele zu erreichen.

Um Cicero zu bauen, heiratet Meta zwei verschiedene Arten von KI: ein Reinforcement-Learning-Modell, das herausfindet, welche Züge zu machen sind, und ein großes Sprachmodell, das mit anderen Spielern verhandelt.

Cicero ist nicht perfekt. Es sendete immer noch Nachrichten, die Fehler enthielten, manchmal den eigenen Plänen widersprachen oder strategische Fehler machten. Aber Meta behauptet, dass Menschen sich oft dafür entschieden haben, mit ihm gegenüber anderen Spielern zusammenzuarbeiten.

Und es ist immer noch von Bedeutung, denn während Spiele wie Schach oder Go mit einem Gewinner und einem Verlierer enden, gibt es für Probleme in der realen Welt normalerweise keine so einfachen Lösungen. Kompromisse und Problemumgehungen zu finden ist oft wertvoller als zu gewinnen. Meta behauptet, dass Cicero ein Schritt in Richtung KI ist, der bei einer Reihe komplexer Probleme helfen kann, die Kompromisse erfordern, von der Planung von Routen um den dichten Verkehr herum bis hin zum Aushandeln von Verträgen.

source site

Leave a Reply