Neues Text-zu-Video-KI-Modell Sora wird kreatives Potenzial freisetzen, erfordert aber „extreme Verantwortung“

Melden Sie sich bei Fox News an, um Zugriff auf diesen Inhalt zu erhalten

Außerdem erhalten Sie mit Ihrem kostenlosen Konto unbegrenzten Zugriff auf Tausende von Artikeln, Videos und mehr!

Bitte geben Sie eine gültige E-Mail-Adresse ein.

Durch die Eingabe Ihrer E-Mail-Adresse stimmen Sie den Nutzungsbedingungen und der Datenschutzrichtlinie von Fox News zu, zu denen auch unser Hinweis zu finanziellen Anreizen gehört. Um auf den Inhalt zuzugreifen, überprüfen Sie Ihre E-Mails und befolgen Sie die bereitgestellten Anweisungen.

Das neue Sora-Programm für künstliche Intelligenz (KI) birgt offensichtliche Fallstricke, doch Experten hoben die Vorteile der neuen Technologie hervor und erkannten gleichzeitig die Notwendigkeit größerer Schutzmaßnahmen und öffentlicher Aufklärung über ihre Nutzung an.

„Obwohl die schnelle Weiterentwicklung der Al-Videoerzeugung ein bemerkenswerter technologischer Durchbruch ist, der Anerkennung verdient, müssen wir auch die tiefgreifenden Herausforderungen anerkennen, die diese Innovation für das Social-Media-Ökosystem und die Informationsumgebung insgesamt darstellt“, sagt Jake Denton, wissenschaftlicher Mitarbeiter bei der Heritage Foundation Tech Policy Center, sagte Fox News Digital.

„Konsumentenorientierte Plattformen sind derzeit nicht darauf vorbereitet, den unvermeidlichen Zustrom von hyperrealistischen synthetischen Videoinhalten zu bewältigen, die durch Tools dieses Kalibers ermöglicht werden“, fügte Denton hinzu.

OpenAI hat kürzlich sein neues Sora-Text-zu-Video-Modell angekündigt, das einen neuen und radikalen Schritt vorwärts für die Inhaltserstellung darstellt. Das Unternehmen lobte stolz die Fähigkeit des Modells, „komplexe Szenen mit mehreren Charakteren, spezifischen Bewegungsarten und präzisen Details des Motivs und Hintergrunds zu erzeugen“.

STAAT VERABSCHEIDET NEUE GESETZE, DIE KI-ERZEUGTE DEEPFAKE-KAMPAGNENMATERIALIEN EINSCHRÄNKEN

Die Ankündigung enthielt über ein Dutzend Beispiele, die von einem hyperrealistischen Oktopus bis zu einer sprießenden Blume reichten, und sogar ein Video einer Person, die sich im Bett umdreht – letzteres zeigt, wie sich die Hand der Person von ihrem Arm löst, als Beispiel für die aktuellen Belastungen, unter denen das System leidet.

Auf diesem Illustrationsfoto ist am 18. Juli 2023 ein Mann zu sehen, der die Chat-Website OpenAI ChatGPT für künstliche Intelligenz nutzt. (Jaap Arriens/NurPhoto über Getty Images)

„Das aktuelle Modell weist Schwächen auf“, schrieb OpenAI in einem Blogbeitrag. „Es kann schwierig sein, die Physik einer komplexen Szene genau zu simulieren, und es kann sein, dass bestimmte Fälle von Ursache und Wirkung nicht verstanden werden.“

Kritiker erkannten schnell die offensichtlichen Fallstricke der neuen Technologie, wie etwa eine leistungsfähigere und noch schwerer zu unterscheidende Form von Deepfakes, doch Experten versuchten, sich auf die Vorteile zu konzentrieren, die diese Technologie bieten kann.

WAS IST KÜNSTLICHE INTELLIGENZ (KI)?

„Dies ist unbestreitbar ein wichtiger Fortschritt für die grafikbezogene generative KI, die ein unglaubliches Potenzial hat“, sagte Christopher Alexander, Chief Analytics Officer der Pioneer Development Group, gegenüber Fox News Digital.

„Der tatsächliche Wert wird jedoch in einigen Monaten deutlicher, wenn zeitnahe Ingenieure versuchen, spezifische Produkte zu entwickeln“, erklärte Alexander. „Midjourney eignet sich hervorragend zum Erstellen von Bildern, wenn man es zum ersten Mal verwendet, aber wenn man anfängt, sich wirklich konkret auf ein festgelegtes kreatives Projekt festzulegen, gibt es einige Reibungen.“

Sam Altman beim WEF-Panel

Sam Altman, CEO von OpenAI, spricht während einer Podiumsdiskussion am dritten Tag des Weltwirtschaftsforums in Davos, Schweiz, am 18. Januar. (Stefan Wermuth/Bloomberg über Getty Images / Getty Images)

„Ich erwarte dasselbe von Sora“, fügte er hinzu. „Die Veröffentlichung von Sora ist ein unglaublicher nächster Schritt in der generativen KI. Ich denke, dass es sich für Kreative als hilfreich erweisen wird, aber es wird schwierig sein, mit dem Hype mitzuhalten.“

OpenAI versprach, wichtige Sicherheitsmaßnahmen zu ergreifen, bevor Sora der Öffentlichkeit zugänglich gemacht wird, wie etwa „kontroverse Tests des Modells“ und Tools, die „bei der Erkennung irreführender Inhalte helfen“, einschließlich eines Erkennungsklassifizierers, um von Sora generierte Videos zu kennzeichnen.

NEUES UNTERNEHMEN KÖNNTE ANGABEN ZIELEN, GOOGLE ALS SUCHKÖNIG ZU STÜTZEN

Phil Siegel, Gründer des Center for Advanced Preparedness and Threat Response Simulation (CAPTRS), behauptete, dass Sora „enorme Produktivitätsgewinne“ erzielen wird, wenn es „positiv eingesetzt“ wird, etwa bei der Entwicklung von Produktdemonstrationen oder komplexen Gesundheitsverfahren – quasi „How-to“. „Leitfäden zu Prozessen und Produkten, die möglicherweise eine umfassendere Untersuchung oder Vorbereitung und Zeitersparnis erfordern.

„Deshalb braucht es Richtlinien oder Vorschriften“, fügte Siegel hinzu und argumentierte, dass KI-Modelle, wenn sie den Technologiebereich dominieren, „extreme Rechenschaftspflicht“ erfordern.

Chatgpt-Bildschirm

ChatGPT ist ein auf einem großen Sprachmodell basierender Chatbot, der von OpenAI entwickelt und am 30. November 2022 gestartet wurde. (Chatgpt)

„Ich denke, es gibt viele positive Verwendungsmöglichkeiten, aber ich denke, bei all dem gibt es auch viele negative Verwendungsmöglichkeiten“, warnte Siegel. „Alles, was es einem Guten oder einem guten Menschen leichter macht, etwas besser zu machen, wird es einem schlechten Menschen leichter machen, etwas besser zu machen.“

KLICKEN SIE HIER, UM DIE FOX NEWS-APP ZU ERHALTEN

„Wenn sie hier dominieren wollen, müssen sie mit viel Verantwortung leben“, fuhr er fort. „Ich schätze, die Frage ist: Die Leute werden dieses Zeug ganz klar nutzen, um coole Dinge zu machen, und viele Leute werden ihre Arbeit besser beherrschen. Sie werden eine ganz neue Klasse kreativer Leute bekommen, die in der Wirtschaft arbeiten.“ .”

„Sie werden halluzinieren“, betonte er. „Ich bin mir nicht sicher, ob sie das jemals verhindern können“, zumindest bis prädiktive Textmodelle nicht mehr nur ein Wort nach dem anderen verarbeiten und damit das Potenzial für bizarre Interpretationen einschränken.

source site

Leave a Reply