KI-Videospielcharaktere wirken so seelenlos, wie man es erwarten würde

Denken Sie an Ihren Lieblings-Videospielcharakter. Stellen Sie sie sich im Kopf vor, erinnern Sie sich an ihre Geschichten und die Leistungen der Schauspieler, die dafür gesorgt haben, dass sie noch lange nach dem Ablegen des Controllers bei Ihnen hängen bleiben. Vielleicht denkst du an Astarion von Baldur’s Gate 3dessen Schauspieler Neil Newbon kürzlich den gewann Auszeichnung für die beste Leistung bei den Game Awards 2023. Oder vielleicht sind Ihre Gedanken bei Ihrer Lieblingsversion von geblieben Link von Die Legende von Zelda Franchise, der Sie über die Jahre hinweg bei jedem neuen Spiel der Serie begleitet hat, obwohl er nie gesprochen hat.

Denken Sie daran, dass alles, was Sie an dieser Figur lieben, von einem Team aus Autoren, Künstlern und Schauspielern geschaffen wurde, die ihre immensen Talente gebündelt haben, um diesen Helden, Bösewicht oder Begleiter zum Leben zu erwecken. Nvidia, das Unternehmen, das für viele Grafikkarten in High-End-PCs verantwortlich ist, kündigte zusammen mit dem KI-Technologieunternehmen Convai einen KI-gestützten NPC-Generator namens Omniverse Avatar Cloud Engine an letztes Jahr. Es versucht, die gleichen Schreib-, Schauspiel- und Animationsinhalte nachzuahmen, die all diese talentierten Leute schaffen, um diesen Charakteren Wirkung zu verleihen. Es gibt jedoch einen entscheidenden Unterschied: Es ist scheiße.

Der Rand hat eine Abschrift eines Gesprächs zwischen dem leitenden Redakteur der Website, Sean Hollister, und zwei NPCs aus einer spielbaren Demo auf der CES 2024 gepostet. Die Demo von Nvidia und Convai Die gezeigten Inhalte ermöglichten es dem Benutzer, mit den Charakteren mit ihrer eigenen Stimme zu sprechen, wobei die KI-Charaktere in Echtzeit auf das Gesagte reagierten. Eine Figur hieß Jin und sollte Angestellte eines Ramen-Restaurants sein, die andere war Nova, eine Gastin, die an der Bar saß. Hollister weist darauf hin, dass die Technik noch einen langen Weg vor sich hat und sagt, dass „Stimmen, Gesichtsausdrücke und Körpersprache“ im Vergleich zu dem, was handgefertigte Arbeiten erfassen können, allesamt nicht auf dem neuesten Stand waren, aber dennoch das Gefühl einer Demonstration hinterließen Die Technologie, die in Videospielen auftaucht, ist „unvermeidlich“. Theoretisch würde dies es Entwicklern ermöglichen, Spielcharaktere zu erstellen, ohne Skripte schreiben und Auftritte aufzeichnen zu müssen. Die KI würde einfach Antworten auf alles generieren, was die Spieler sagen. Dies folgt auf die wachsende Besorgnis von Synchronsprechern nach dem Deal von SAG-AFTRA mit dem Technologieunternehmen Replica Studios, der es ihm ermöglicht, KI-Nachbildungen von Synchronsprechern zu erstellen. Sehr zum Leidwesen derjenigen, deren Stimmen auf dem Spiel stehen.

Nvidia / Convai

Wie Hollister es in dem Artikel beschreibt, sind Jin und Nova „effektiv generative KI-Chatbots“. Keiner der beiden Charaktere scheint jenseits der Mauern des Ramen-Ladens viel zu denken zu haben. Sie können sich die Cyberpunk-Stadt, in der sie leben sollen, vorstellen, indem sie Raubüberfälle, Firmenkriminalität und andere Kleinkriminalität erwähnen, aber das meiste davon fühlt sich einfach so an, als würden sie aus einer Wortdatenbank schöpfen. Hier gibt es nichts, was Prosa, Emotionen oder irgendetwas anderem ähnelt, was eine Figur liebenswert oder menschenähnlich macht. KI verspricht eine Art prozeduraler, endloser Möglichkeiten, die einem Charakter theoretisch das Gefühl geben könnten, lebendiger und reaktiver zu sein als ein durchschnittlicher NPC, aber wenn kein tatsächlicher Dialog geschrieben ist, handelt es sich nur um einen Algorithmus, der versucht, uns dazu zu bringen, die Welt zu glauben ist echt.

Es wurde offenbar viel Arbeit darauf verwendet, die Simulation real wirken zu lassen. Convai-Produktleiter Nyla Worker erklärt Der Rand dass jeder NPC über eine Backend-Programmierung verfügt, die ihm ein zentrales Ethos geben soll, einschließlich einer Charakterbeschreibung, einer Wissensdatenbank und Persönlichkeitsmerkmalen, etwa ob er extrovertiert oder introvertiert ist. Diese KI-gesteuerten NPCs verfügen also im Wesentlichen über ein digitales Charakterblatt, aus dem sie schöpfen, damit sie nicht von ihrer Rolle abbrechen. Aber auch hier handelt es sich nur um eine KI, die darauf trainiert wird, einen bestimmten Archetyp nachzuahmen, damit sie als Person mitspielen kann. Die Charaktere, die Sie lieben, haben ihre Wirkung erzielt, weil jemand sie erschaffen hat, und nicht, weil ein Algorithmus sie vor Ihnen platziert hat, um eine generierte Hintergrundgeschichte zu erzählen. Autoren, Animatoren und Schauspieler verleihen ihnen ein Gefühl der Realität, als ob sie tatsächliche Identitäten und ihre eigenen Hoffnungen und Träume hätten.

Das alles folgt Tausende Entlassungen in der gesamten Videospielbranche allein in den ersten 19 Tagen des Jahres 2024. Diese Art von gefühlloser Behandlung von Arbeitern und ihrer Arbeitskraft darf nur andauern, weil Führungskräfte sich weigern, Gehaltskürzungen hinzunehmen, und nach Unternehmen wie Nvidias Technologie suchen, um weiterhin Videospiele auf den Markt zu bringen, ohne die Leute dafür bezahlen zu müssen, sie herzustellen.

source site

Leave a Reply