Ein KI-generierter Film zeigt die menschliche Einsamkeit in „Thank You for Not Answering“

In den ersten dreißig Sekunden des Kurzfilms „Thank You for Not Answering“ des Regisseurs und Künstlers Paul Trillo blickt eine Frau aus dem Fenster eines U-Bahnwagens, der unter Wasser gesunken zu sein scheint. Ein Mann erscheint im Fenster und schwimmt auf das Auto zu. Sein Körper materialisiert sich aus der Dunkelheit und dem wirbelnden Wasser. Es ist eine beängstigende, klaustrophobische, gewalttätige Szene – eine Szene, für deren Dreh Hunderttausende Dollar an Requisiten und Spezialeffekten nötig gewesen wären, aber Trillo hat sie innerhalb weniger Minuten mit einem experimentellen Werkzeugkasten erstellt, der von einem Unternehmen für künstliche Intelligenz namens Runway hergestellt wurde . Die Figuren im Film wirken real, gespielt von Menschen, die sich möglicherweise tatsächlich unter Wasser befinden. Doch auf den zweiten Blick offenbart sich das Unheimliche in ihren leeren Augen, den aufgeblähten Gliedmaßen und den matschigen Gesichtszügen. Die surreale oder hyperreale Ästhetik von KI-generierten Videos basiert möglicherweise auf Modellen, die mit Live-Action-Filmmaterial trainiert wurden, aber das Ergebnis „fühlt sich eher einem Traum an“, sagte mir Trillo. Er fuhr fort: „Es ist eher so, als würde man die Augen schließen und versuchen, sich an etwas zu erinnern.“

„Thank You for Not Answering“ ist eine Beschwörung von Einsamkeit und Isolation. Ein klingender Voice-Over – von einem KI-generierten Stimmmodell, das auf Harry Dean Stantons Monolog aus dem Film „Paris, Texas“ trainiert wurde – liest ein Drehbuch von Trillo, eine Voicemail auf einem Anrufbeantworter, trauert um den Verlust von Möglichkeiten und Erinnerungen, vielleicht an die Ruinen einer Beziehung. „Eines Tages wird unser gesamtes Leben auf unserem Rücken liegen und die Was-wäre-wenn-Situation wird mich immer noch verfolgen“, sagt die unheimliche Stimme, während sie über die zweieinhalb Minuten des Films redet. Trillo schrieb das Drehbuch auf dem Höhepunkt der Pandemie, einem Moment völliger Trennung. Er platzierte es über einer Kaskade von KI-Bildern: Blitze überfluteter U-Bahn-Wagen, Telefonzellen in der Wüste, elegant gekleidete Menschen auf Partys und nachts beleuchtete Wohnungen. Die Stimmung ist teils Edward Hopper, teils David Lynch – eine filmische Inspiration von Trillo.

Paul Trillo generierte Bilder mit einem KI-Tool namens Stable Diffusion und speiste sie in ein anderes Tool namens Runway AI ein, um die Ästhetik des Films festzulegen.Kunstwerk von Paul Trillo, generiert mit Stable Diffusion in Automatic1111

Um die Clips zu erstellen, erstellte Trillo zunächst mithilfe des KI-Tools Stable Diffusion, das vom Team von Runway mitentwickelt wurde, Standbilder, die die Szenen vorschlugen, die er sich vorgestellt hatte. Ähnlich wie DALL-E, einem weiteren Bildgenerator, gibt Trillo eine Textaufforderung ein, die den Inhalt beschreibt, den er im Bild haben möchte, sowie Adjektive, um die Ästhetik festzulegen. Sie fungieren als Konzeptkunst oder Storyboarding. Dann speiste er Runway mit den generierten Bildern, eines pro Clip, und einer weiteren absatzlangen Textaufforderung ein, die die gewünschte Bewegung und Animation im Videoclip beschrieb, einschließlich Vorschlägen für Kamerabewegungen. Runway tuckert davon und spuckt dann einen kurzen Clip aus, der ungefähr das Bild und die Aufforderungen widerspiegelt.

Trillo fügte die vielen resultierenden Clips, von denen jeder mehrere Permutationen erforderte, zusammen, um den endgültigen Kurzfilm zu erstellen. Trillo demonstrierte mir den Vorgang während eines Zoom-Anrufs; In Sekundenschnelle war es beispielsweise möglich, eine Kamerafahrt einer allein weinenden Frau in einem sanft beleuchteten Restaurant zu rendern. Seine Aufforderung beinhaltete eine Reihe von SEO-ähnlichen Begriffen, die die Maschine dazu anregen sollten, eine besonders filmische Ästhetik zu schaffen: „Stimmungsvolle Beleuchtung, ikonisch, visuell atemberaubend, immersiv, wirkungsvoll.“ Trillo war von dem Prozess begeistert: „Die Geschwindigkeit, mit der ich arbeiten konnte, war anders als alles, was ich je erlebt hatte.“ Er fuhr fort: „Es fühlte sich an, als könnte man in einem Traum fliegen.“ Das KI-Tool war neben ihm „Co-Regisseur“: „Es trifft viele Entscheidungen, die ich nicht getroffen habe.“

KI-Bilder haben ihre Mängel – menschliche Gesichter neigen dazu, deformiert zu sein, Hände sind immer noch schwierig und natürliche Körperbewegungen lassen sich nur schwer wiedergeben –, aber der Film nutzt diese zu seinem Vorteil. Es spielt keine Rolle, dass die Szenen nicht ganz real aussehen; Ihre Traumhaftigkeit macht sie umso eindringlicher und verdoppelt die Wehmut des Off-Kommentars. Der Fotorealismus würde nicht zum Material passen, obwohl der Film dem nahe genug kommt, dass man ihn kurzzeitig für echt halten könnte. („Je mehr Schatten man hat, desto glaubwürdiger ist etwas“, sagte Trillo.) Der Regisseur wollte mit KI Effekte erzielen, die mit herkömmlichen Werkzeugen, ob Spezialeffekte oder Kinematographie, nicht möglich wären: „Es ist ein bisschen langweilig Machen Sie Dinge, die Sie mit einer echten Kamera und einem echten Darsteller hätten drehen können.“ Gleichzeitig ermöglichte „Runway“ Trillo die Visualisierung von Szenen, die er sich sonst nicht hätte leisten können, etwa den überfluteten U-Bahn-Wagen. „Es ist sehr gut mit Feuer, Explosionen und Wasser. Je organischer es ist, desto besser ist es“, sagte er. (Runway hat sein eigenes internes Videogenerierungsmodell entwickelt und wollte nicht offenlegen, auf welchen Daten das Modell trainiert wurde.)

KI-Bilder haben ihre Schwächen, aber der Film nutzt diese zu seinem Vorteil.Kunstwerk von Paul Trillo, generiert mit Stable Diffusion in Automatic1111

KI ist zu einem Teil von Trillos Filmpalette geworden; Er nutzte es auch, um die Hintergründe eines animierten Werbespots für GoFundMe zu generieren. Es senkt die Hürde für die Schaffung visueller Effekte drastisch. Cristóbal Valenzuela, der CEO und Mitbegründer von Runway, bezeichnete es als einen radikalen Wandel. „Die Kosten für die Erstellung von Inhalten sinken auf Null. Die meisten Inhalte, die Sie konsumieren, ansehen und erstellen, werden generiert“, sagte er mir. Er sieht eine grundlegende Veränderung in der Art und Weise, wie Filme erstellt und rezipiert werden: Wenn jeder durch einfaches Eintippen von Text in ein Feld eine realistische Explosion erzeugen kann, wird die Explosion auf dem Bildschirm nicht mehr so ​​auffällig sein. Das Filmemachen wird „eine kuratorische und redaktionelle Aufgabe sein, bei der man Iterationen durchgeht und diejenigen auswählt, die interessanter sind.“

Der Ausdruck „KI-generierter Film“ ist etwas irreführend. Im Fall von Trillo schrieb der Regisseur ein Drehbuch, stellte eine visuelle Ästhetik zusammen, bestimmte die zu erstellenden Szenen, wählte aus den Ergebnissen von Runway aus und schnitt die Clips dann zu einem thematisch zusammenhängenden Endprodukt zusammen. Generative Werkzeuge lieferten die Medien – Stimme, Gesichter, Szenerie und Animation –, aber das menschliche kreative Element ist immer noch in jedem Schritt des Prozesses präsent. Trillo hat nicht das Gefühl, dass er sich durch den Einsatz von KI über die Zeit hinaus entwickelt. „Ich bin nicht daran interessiert, dass dadurch irgendetwas ersetzt wird“, sagte er.

source site

Leave a Reply