Mein Deepfake zeigt, wie wertvoll unsere Daten im Zeitalter der KI sind

Synthesia hat es geschafft, KI-Avatare zu erschaffen, die bemerkenswert menschenähnlich sind, nachdem sie nur ein Jahr lang an der neuesten Generation generativer KI herumgebastelt haben. Es ist gleichermaßen spannend und entmutigend darüber nachzudenken, wohin diese Technologie führen wird. Bald wird es sehr schwierig sein, zwischen Realität und Unrealität zu unterscheiden, und angesichts der Rekordzahl an Wahlen, die in diesem Jahr weltweit stattfinden, ist dies eine besonders akute Bedrohung.

Wir sind nicht bereit für das, was kommt. Wenn Menschen den Inhalten, die sie sehen, zu skeptisch gegenüberstehen, hören sie möglicherweise überhaupt auf, an irgendetwas zu glauben, was es Kriminellen ermöglichen könnte, dieses Vertrauensvakuum auszunutzen und über die Authentizität echter Inhalte zu lügen. Forscher haben dies als „Lügnerdividende“ bezeichnet. Sie warnen, dass beispielsweise Politiker behaupten könnten, dass tatsächlich belastende Informationen gefälscht oder mithilfe von KI erstellt worden seien.

Ich habe gerade eine Geschichte über meine Erfahrung bei der Erstellung von Deepfakes und über die großen Fragen einer Welt veröffentlicht, in der wir zunehmend nicht mehr sagen können, was real ist. Lesen Sie es hier.

Aber es gibt noch eine weitere große Frage: Was passiert mit unseren Daten, wenn wir sie an KI-Unternehmen übermitteln? Synthesia gibt an, die von Akteuren und Kunden gesammelten Daten nicht zu verkaufen, gibt jedoch einige davon für akademische Forschungszwecke frei. Das Unternehmen nutzt Avatare drei Jahre lang. Anschließend werden die Schauspieler gefragt, ob sie ihre Verträge verlängern möchten. Wenn ja, kommen sie ins Studio, um einen neuen Avatar zu erstellen. Wenn nicht, löscht das Unternehmen seine Daten.

Aber andere Unternehmen sind in Bezug auf ihre Absichten nicht so transparent. Wie meine Kollegin Eileen Guo letztes Jahr berichtete, lizenzieren Unternehmen wie Meta die Daten von Schauspielern – einschließlich ihrer Gesichter und Gesichtsausdrücke – auf eine Weise, die es den Unternehmen ermöglicht, damit zu machen, was sie wollen. Den Schauspielern wird im Voraus eine geringe Gebühr gezahlt, aber ihr Abbild kann dann ohne ihr Wissen dazu verwendet werden, auf Dauer KI-Modelle zu trainieren.

Selbst wenn Datenverträge transparent seien, gelten sie nicht, wenn Sie sterben, sagt Carl Öhman, Assistenzprofessor an der Universität Uppsala, der die von Verstorbenen hinterlassenen Online-Daten untersucht hat und Autor eines neuen Buches ist: Das Nachleben der Daten. Die Daten, die wir in Social-Media-Plattformen oder KI-Modelle eingeben, könnten am Ende Unternehmen zugute kommen und noch lange nach unserem Tod weiterleben.

„Facebook wird voraussichtlich in den nächsten Jahrzehnten mehrere Milliarden tote Profile beherbergen“, sagt Öhman. „Sie sind nicht wirklich kommerziell rentabel. „Tote Menschen klicken zwar nicht auf Anzeigen, aber sie belegen trotzdem Serverplatz“, fügt er hinzu. Diese Daten könnten verwendet werden, um neue KI-Modelle zu trainieren oder Rückschlüsse auf die Nachkommen dieser verstorbenen Benutzer zu ziehen. Das gesamte Daten- und Einwilligungsmodell mit KI gehe davon aus, dass sowohl die betroffene Person als auch das Unternehmen für immer weiterleben, sagt Öhman.

Unsere Daten sind ein begehrtes Gut. KI-Sprachmodelle werden durch wahlloses Scrapen des Webs trainiert, und dazu gehören auch unsere persönlichen Daten. Vor ein paar Jahren habe ich getestet, ob GPT-3, der Vorgänger des Sprachmodells, auf dem ChatGPT basiert, etwas für mich zu bieten hat. Es war schwierig, aber ich stellte fest, dass ich persönliche Informationen über den Chefredakteur von MIT Technology Review, Mat Honan, abrufen konnte.

source site

Leave a Reply