Tag: Deepfakes
EU warnt davor, dass Bing von Microsoft wegen Deepfakes und falschen Nachrichten untersucht werden könnte – POLITICO
Zum Hauptinhalt springen
Der Download: Deepfakes der Toten und warum es an der Zeit ist, gefälschtes Fleisch zu akzeptieren
Es gibt viele Menschen wie Sun, die KI nutzen möchten, um verlorene geliebte Menschen zu bewahren, zu animieren und mit ihnen zu interagieren, während sie trauern und versuchen zu heilen. Besonders stark ist der Markt in China, wo inzwischen mindestens ein halbes Dutzend Unternehmen solche Technologien anbieten und Tausende Menschen bereits dafür bezahlt haben.
Einige fragen sich jedoch, ob die Interaktion mit KI-Nachbildungen von Toten wirklich eine gesunde Art ist, Trauer zu verarbeiten, und es ist nicht ganz klar, welche
China hat einen florierenden Markt für Deepfakes, die Tote klonen
Deepfake-Technologien haben sich so weit entwickelt, dass es jetzt einfach und erschwinglich ist, das Aussehen und die Stimmen von Menschen mit KI zu klonen. Mittlerweile ist es dank großer Sprachmodelle praktikabler als je zuvor, vollständige Gespräche mit KI-Chatbots zu führen.
Ich habe gerade hat eine Geschichte veröffentlicht heute über den aufkeimenden Markt in China für die Anwendung dieser Fortschritte zur Wiederherstellung verstorbener Familienmitglieder. Tausende trauernde Menschen haben begonnen, sich für Gespräche und Trost an die digitalen Avatare verstorbener Angehöriger zu
Deepfakes Ihrer verstorbenen Angehörigen sind ein boomendes chinesisches Geschäft
In chinesischen Haushalten ist es üblich, noch einige Jahre nach dem Tod ein Porträt eines verstorbenen Verwandten aufzuhängen. Zhang Zewei, Gründer eines in Shanghai ansässigen Unternehmens namens Super Brain, sagt, er und sein Team wollten diese Tradition mit einem „KI-Fotorahmen“ neu aufleben lassen. Sie erstellen Avatare verstorbener Angehöriger, die auf einem Android-Tablet vorinstalliert sind und im Stehen wie ein Bilderrahmen aussehen. Kunden können ein bewegtes Bild wählen, das Wörter aus einer Offline-Datenbank oder einem LLM spricht.
„Im Wesentlichen unterscheidet es
Der Download: hyperrealistische Deepfakes und die Auswirkungen sauberer Energie auf den Bergbau
Bisher wiesen KI-generierte Videos von Menschen tendenziell Steifheit, Störungen oder andere unnatürliche Elemente auf, die es ziemlich einfach machten, sie von der Realität zu unterscheiden.
In den letzten Jahren hat das KI-Video-Startup Synthesia solche KI-generierten Avatare produziert. Aber heute bringt es eine neue Generation auf den Markt, die erste, die die neuesten Fortschritte in der generativen KI nutzt, und sie sind realistischer und ausdrucksvoller als alles, was wir bisher gesehen haben.
Während die heutige Veröffentlichung bedeutet, dass fast jeder nun
Deepfakes von Bollywood-Stars wecken Befürchtungen über eine Einmischung der KI in die Wahlen in Indien – Euractiv
In gefälschten Videos, die im Internet viral gegangen sind, sind zwei der prominentesten Bollywood-Schauspieler Indiens zu sehen, wie sie Premierminister Narendra Modi kritisieren und die Menschen auffordern, bei den laufenden Parlamentswahlen im Land für die oppositionelle Kongresspartei zu stimmen.
In einem 30-sekündigen Video, das Aamir Khan und einen weiteren 41-sekündigen Clip von Ranveer Singh zeigt, sagen die beiden Bollywood-Schauspieler angeblich, Modi habe während seiner beiden Amtszeiten als Premierminister seine Wahlversprechen nicht eingehalten und kritische Wirtschaftsfragen nicht angesprochen.
Beide KI-generierten Videos
Politische Parteien in der EU versprechen, sich vor der Wahl von Deepfakes fernzuhalten – POLITICO
Die Zusage erfolgt vor dem Hintergrund der Besorgnis über eine ausländische Einmischung durch Desinformationskampagnen und Cyberangriffe. In der Slowakei, im Vereinigten Königreich und in den Vereinigten Staaten verbreiten sich Videos, Fotos und Audiodaten, die mit allgemein zugänglichen Tools der künstlichen Intelligenz erstellt wurden, um sich als Persönlichkeiten des öffentlichen Lebens, darunter Politiker, auszugeben, um Wähler zu manipulieren. Auch Parteien in Frankreich und Polen haben die Technologie genutzt, um andere Politiker anzugreifen.
„Diese Vereinbarung wird dazu beitragen, das Vertrauen der Wähler
Blockchain-Technologie könnte die Antwort auf die Aufdeckung von Deepfakes und die Validierung von Inhalten sein
Bildnachweis: Yuichiro Chino / Getty Images
Vor zwei Monaten hat sich der Medienriese Fox Corp. mit Polygon Labs, dem Team hinter der auf Ethereum fokussierten Layer-2-Blockchain, zusammengetan, um das Misstrauen gegenüber Deepfakes zu bekämpfen.
Fox und Polygon haben Verify eingeführt, ein Protokoll, das darauf abzielt, ihr geistiges Eigentum zu schützen und gleichzeitig Verbrauchern die Überprüfung der Authentizität von Inhalten zu ermöglichen. Und seitdem sehen staatliche Regulierungsausschüsse, Verlage und andere dies als eine praktikable Lösung für ein „heutiges Problem“, sagte Melody
Deepfakes und die möglichen Risiken für die EU-Wahlen – Euractiv
Künstliche Intelligenz, Deepfakes, soziale Medien und Fehlinformationen sind zu festen Bestandteilen unseres täglichen Lebens geworden und ihr Einfluss auf politische Wahlen, möglicherweise auch auf die bevorstehenden EU-Wahlen im Juni, ist erheblich.
Aber was genau ist ein Deepfake?
Verbote von Deepfakes bringen uns nur bis zu einem gewissen Punkt – hier ist, was wir wirklich brauchen
Regeln, die vorschreiben, dass alle KI-generierten Inhalte mit Wasserzeichen versehen werden müssen, lassen sich nicht durchsetzen, und es ist auch sehr wahrscheinlich, dass Wasserzeichen am Ende das Gegenteil von dem bewirken, was sie sollen, sagt Leufer. Zum einen können in Open-Source-Systemen Wasserzeichen- und Herkunftstechniken von böswilligen Akteuren entfernt werden. Dies liegt daran, dass jeder Zugriff auf den Quellcode des Modells hat, sodass bestimmte Benutzer einfach alle Techniken entfernen können, die sie nicht möchten.
Wenn nur die größten Unternehmen oder die