Eine andere Seite des KI-Booms: Erkennen, was KI bewirkt

Andrey Doronichev war letztes Jahr alarmiert, als er in den sozialen Medien ein Video sah, das die Kapitulation des Präsidenten der Ukraine gegenüber Russland zu zeigen schien.

Das Video wurde schnell als synthetisch erzeugter Deepfake entlarvt, doch für Herrn Doronichev war es ein besorgniserregendes Vorzeichen. In diesem Jahr näherten sich seine Befürchtungen der Realität, als Unternehmen anfingen, um die Weiterentwicklung und Veröffentlichung von Technologien der künstlichen Intelligenz zu konkurrieren, trotz des Chaos, das sie anrichten könnte.

Generative KI steht mittlerweile jedem zur Verfügung und ist zunehmend in der Lage, Menschen mit Texten, Audiodateien, Bildern und Videos zu täuschen, die scheinbar von Menschen erdacht und aufgenommen wurden. Das Risiko gesellschaftlicher Leichtgläubigkeit hat Bedenken hinsichtlich Desinformation, Arbeitsplatzverlust, Diskriminierung, Privatsphäre und weit verbreiteter Dystopie geweckt.

Für Unternehmer wie Herrn Doronichev ist es auch zu einer Geschäftsmöglichkeit geworden. Mittlerweile bieten mehr als ein Dutzend Unternehmen Tools an, um zu erkennen, ob etwas mit künstlicher Intelligenz erstellt wurde, mit Namen wie Sensity AI (Deepfake-Erkennung), Fictitious.AI (Plagiatserkennung) und Originality.AI (auch Plagiat).

Herr Doronichev, ein gebürtiger Russe, gründete in San Francisco ein Unternehmen namens Optic, um bei der Identifizierung von synthetischem oder gefälschtem Material zu helfen – um, in seinen Worten, „ein Flughafen-Röntgengerät für digitale Inhalte“ zu sein.

Im März wurde eine Website eröffnet, auf der Benutzer Bilder überprüfen können, um festzustellen, ob sie mit echten Fotos oder künstlicher Intelligenz erstellt wurden. Es wird an anderen Diensten zur Überprüfung von Video und Audio gearbeitet.

„Die Authentizität von Inhalten wird zu einem großen Problem für die gesamte Gesellschaft“, sagte Herr Doronichev, der als Investor für eine Face-Swapping-App namens Reface tätig war. Wir betreten das Zeitalter der billigen Fälschungen.“ Da die Produktion gefälschter Inhalte nicht viel kostet, könne dies in großem Maßstab erfolgen, sagte er.

Laut dem Marktforschungsunternehmen Grand View Research wird der Gesamtmarkt für generative KI bis 2030 voraussichtlich 109 Milliarden US-Dollar überschreiten und bis dahin durchschnittlich um 35,6 Prozent pro Jahr wachsen. Unternehmen, die sich auf die Erkennung dieser Technologie konzentrieren, sind ein wachsender Teil der Branche.

Monate nach der Erstellung durch einen Studenten der Princeton University behauptet GPTZero, dass mehr als eine Million Menschen sein Programm verwendet haben, um computergenerierten Text zu erforschen. Reality Defender war eines von 414 Unternehmen, die aus 17.000 Bewerbungen ausgewählt wurden, um diesen Winter vom Start-up-Accelerator Y Combinator gefördert zu werden.

Copyleaks hat letztes Jahr 7,75 Millionen US-Dollar eingesammelt, unter anderem um seine Anti-Plagiats-Dienste für Schulen und Universitäten zu erweitern, um künstliche Intelligenz in der Arbeit von Studenten zu erkennen. Sentinel, dessen Gründer sich auf Cybersicherheit und Informationskriegsführung für die britische Royal Navy und die North Atlantic Treaty Organization spezialisiert haben, schloss im Jahr 2020 eine Seed-Runde in Höhe von 1,5 Millionen US-Dollar ab, die teilweise von einem der Gründungsingenieure von Skype unterstützt wurde, um Demokratien vor Deepfakes und anderen bösartigen Angriffen zu schützen synthetische Medien.

Auch große Technologieunternehmen sind beteiligt: ​​Intels FakeCatcher behauptet, Deepfake-Videos mit einer Genauigkeit von 96 Prozent identifizieren zu können, unter anderem durch die Analyse von Pixeln auf subtile Anzeichen von Blutfluss in menschlichen Gesichtern.

Innerhalb der Bundesregierung plant die Defense Advanced Research Projects Agency, dieses Jahr fast 30 Millionen US-Dollar für den Betrieb von Semantic Forensics auszugeben, einem Programm, das Algorithmen entwickelt, um Deepfakes automatisch zu erkennen und festzustellen, ob sie bösartig sind.

Sogar OpenAI, das mit der Veröffentlichung seines ChatGPT-Tools Ende letzten Jahres den KI-Boom beschleunigte, arbeitet an Erkennungsdiensten. Das in San Francisco ansässige Unternehmen stellte im Januar ein kostenloses Tool vor, das dabei helfen soll, zwischen von Menschen verfassten Texten und von künstlicher Intelligenz verfassten Texten zu unterscheiden.

OpenAI betonte, dass das Tool zwar eine Verbesserung gegenüber früheren Iterationen darstelle, aber immer noch „nicht völlig zuverlässig“ sei. Das Tool identifizierte 26 Prozent des künstlich generierten Textes korrekt, markierte jedoch fälschlicherweise 9 Prozent des von Menschen stammenden Textes als computergeneriert.

Das OpenAI-Tool weist häufige Mängel in Erkennungsprogrammen auf: Es hat Probleme mit kurzen Texten und Schriften, die nicht auf Englisch verfasst sind. In Bildungseinrichtungen wird Plagiatserkennungstools wie TurnItIn vorgeworfen, dass sie von Studenten verfasste Aufsätze fälschlicherweise als von Chatbots erstellt klassifiziert haben.

Erkennungswerkzeuge hinken der generativen Technologie, die sie erkennen wollen, grundsätzlich hinterher. Bis ein Abwehrsystem in der Lage ist, die Arbeit eines neuen Chatbots oder Bildgenerators wie Google Bard oder Midjourney zu erkennen, entwickeln Entwickler bereits eine neue Iteration, die dieser Abwehr entgehen kann. Die Situation wurde als Wettrüsten oder als Virus-Antivirus-Beziehung beschrieben, bei der das eine das andere immer wieder hervorbringt.

„Wenn Midjourney Midjourney 5 herausbringt, zündet mein Startschuss und ich fange an, aufzuholen – und während ich das tue, arbeiten sie an Midjourney 6“, sagte Hany Farid, Professor für Informatik an der Universität aus Kalifornien, Berkeley, der sich auf digitale Forensik spezialisiert und auch in der KI-Erkennungsbranche tätig ist. „Es ist ein von Natur aus kontroverses Spiel, bei dem, während ich am Detektor arbeite, jemand eine bessere Mausefalle, einen besseren Synthesizer baut.“

Trotz des ständigen Aufholbedarfs verzeichnen viele Unternehmen eine Nachfrage von Schulen und Pädagogen nach KI-Erkennung, sagte Joshua Tucker, Politikprofessor an der New York University und Co-Direktor des Center for Social Media and Politics. Er stellte die Frage, ob vor den Wahlen 2024 ein ähnlicher Markt entstehen würde.

„Wird sich eine Art paralleler Flügel dieser Unternehmen entwickeln, der dabei hilft, politische Kandidaten zu schützen, damit sie wissen, wann sie ins Visier solcher Dinge geraten“, sagte er.

Experten sagten, dass synthetisch erzeugte Videos immer noch ziemlich klobig und leicht zu identifizieren seien, das Klonen von Audio und die Erstellung von Bildern jedoch beide sehr fortgeschritten seien. Um Echtheit von Fälschung zu unterscheiden, sind digitale Forensik-Taktiken wie die umgekehrte Bildsuche und die Verfolgung von IP-Adressen erforderlich.

Verfügbare Erkennungsprogramme werden anhand von Beispielen getestet, die „ganz anders sind, als wenn man in die Wildnis geht, wo Bilder die Runde gemacht haben und verändert und beschnitten und verkleinert und transkodiert und mit Anmerkungen versehen wurden und Gott weiß, was sonst noch mit ihnen passiert ist.“ Herr Farid sagte.

„Dieses Waschen von Inhalten macht dies zu einer schwierigen Aufgabe“, fügte er hinzu.

Die Content Authenticity Initiative, ein Konsortium aus 1.000 Unternehmen und Organisationen, ist eine Gruppe, die versucht, generative Technologie von Anfang an offensichtlich zu machen. (Angeführt wird sie von Adobe mit Mitgliedern wie der New York Times und Akteuren im Bereich der künstlichen Intelligenz wie Stability AI.) Anstatt den Ursprung eines Bildes oder Videos später im Lebenszyklus herauszufinden, versucht die Gruppe, gültige Standards festzulegen nachvollziehbare Referenzen zur digitalen Arbeit bei der Erstellung.

Adobe gab letzte Woche bekannt, dass seine generative Technologie Firefly in Google Bard integriert wird, wo es „Nährwertkennzeichnungen“ an die von ihm produzierten Inhalte anfügt, einschließlich des Erstellungsdatums eines Bildes und der digitalen Tools, mit denen es erstellt wurde.

Jeff Sakasegawa, der Vertrauens- und Sicherheitsarchitekt bei Persona, einem Unternehmen, das bei der Überprüfung der Verbraucheridentität hilft, sagte, die Herausforderungen durch künstliche Intelligenz hätten erst begonnen.

„Die Welle nimmt Fahrt auf“, sagte er. „Es geht zum Ufer. Ich glaube nicht, dass es schon abgestürzt ist.“

source site

Leave a Reply