Digitale Nachbildungen toter Menschen bedürfen dringend einer Regulierung, sagen KI-Ethiker | Künstliche Intelligenz (KI)

Künstliche Intelligenz (KI)

Befürchtungen, dass „Deadbots“ ihren Erstellern und Nutzern psychischen Schaden zufügen oder sie digital „verfolgen“ könnten

Do, 9. Mai 2024, 02.00 Uhr MESZ

Digitale Nachbildungen toter Menschen stehen kurz vor der Realität und bedürfen dringend einer Regulierung, argumentieren KI-Ethiker und warnen davor, dass „Deadbots“ ihren Erstellern und Nutzern psychischen Schaden zufügen und sie sogar „heimsuchen“ könnten.

Solche Dienste, die bereits technisch möglich und rechtlich zulässig sind, könnten es Benutzern ermöglichen, ihre Gespräche mit verstorbenen Verwandten in Form eines Chatbots hochzuladen, um „Oma wieder zum Leben zu erwecken“, schlagen Forscher der Universität Cambridge vor.

Sie können an Eltern mit unheilbaren Krankheiten vermarktet werden, die ihrem Kind etwas hinterlassen möchten, mit dem es interagieren kann, oder einfach an noch gesunde Menschen verkauft werden, die ihr gesamtes Leben katalogisieren und ein interaktives Erbe schaffen möchten.

Aber in jedem Fall könnten skrupellose Unternehmen und gedankenlose Geschäftspraktiken dauerhafte psychische Schäden verursachen und die Rechte der Verstorbenen grundsätzlich missachten, argumentiert das Papier.

„Rasche Fortschritte in der generativen KI bedeuten, dass fast jeder mit Internetzugang und etwas Grundwissen einen verstorbenen geliebten Menschen wiederbeleben kann“, sagte Dr. Katarzyna Nowaczyk-Basińska, eine der Co-Autoren der Studie am Leverhulme Centre for the Future of Intelligence (LCFI) in Cambridge ).

„Dieser Bereich der KI ist ein ethisches Minenfeld. Es ist wichtig, die Würde des Verstorbenen in den Vordergrund zu stellen und sicherzustellen, dass diese nicht durch finanzielle Motive, beispielsweise durch digitale Jenseitsdienste, beeinträchtigt wird.“

Ein Risiko besteht bei Unternehmen, die ihre digitalen Legacy-Dienste durch Werbung monetarisieren. Benutzer eines solchen Dienstes könnten schockiert sein, wenn ihr digital nachgebildeter geliebter Mensch anfängt, ihnen vorzuschlagen, Essen zum Mitnehmen zu bestellen, anstatt selbst zu kochen, heißt es in dem Papier, was zu der unangenehmen Erkenntnis führt, dass sie nicht zu der Frage befragt wurden, ob ihre Daten verwendet werden könnten derart.

Wenn es sich bei den Nutzern solcher Dienste um Kinder handelt, sind weitaus schlimmere Ergebnisse möglich. Eltern, die ihren Kindern helfen wollen, mit dem Verlust der Mutter oder des Vaters umzugehen, könnten bald auf Deadbots zurückgreifen.

Es gibt jedoch kaum Hinweise darauf, dass ein solcher Ansatz psychologisch hilfreich ist, und vieles deutet darauf hin, dass er erheblichen Schaden anrichten könnte, indem er den normalen Trauerprozess kurzschließt.

„Kein Freizeitdienst kann nachweisen, dass die Interaktion von Kindern mit ‚Deadbots‘ von Vorteil ist oder dieser gefährdeten Gruppe zumindest keinen Schaden zufügt“, warnt die Zeitung.

Um die Würde der Toten sowie das psychische Wohlbefinden der Lebenden zu wahren, schlagen die Forscher eine Reihe bewährter Praktiken vor, deren Durchsetzung möglicherweise sogar einer Regulierung bedarf.

Solche Dienste sollten beispielsweise über Verfahren zum sensiblen „Ausmustern“ von Deadbots verfügen und ihre interaktiven Funktionen nur auf Erwachsene beschränken sowie sehr transparent über ihre Funktionsweise und die Einschränkungen jedes künstlichen Systems sein.

Die Idee, ein KI-System im ChatGPT-Stil zu verwenden, um einen toten geliebten Menschen nachzubilden, ist keine Science-Fiction. Im Jahr 2021 machte Joshua Barbeau Schlagzeilen, nachdem er mit GPT-3 einen Chatbot erstellt hatte, der mit der Stimme seiner toten Freundin sprach, und sechs Jahre zuvor wandelte die Entwicklerin Eugenia Kuyda die Textnachrichten einer engen Freundin von ihr in einen Chatbot um. was letztendlich zur Entwicklung der beliebten KI-Begleit-App Replika führte.

Die Technologie geht auch über Chatbots hinaus. Im Jahr 2021 führte die Genealogie-Website MyHeritage Deep Nostalgia ein, eine Funktion, die aus Standbildern animierte Videos der Vorfahren der Benutzer erstellte. Nachdem die Funktion viral ging, gab das Unternehmen zu, dass einige Benutzer sie „gruselig finden“.

„Die Ergebnisse können kontrovers sein und es ist schwer, dieser Technologie gegenüber gleichgültig zu bleiben“, sagte MyHeritage damals. „Diese Funktion ist für nostalgische Zwecke gedacht, das heißt, um geliebte Vorfahren wieder zum Leben zu erwecken. Unsere Fahrervideos enthalten keine Sprache, um Missbrauch wie etwa die Erstellung von „Deep Fake“-Videos lebender Menschen zu verhindern.“

Ein Jahr später führte MyHeritage DeepStory ein – mit dem Benutzer sprechende Videos erstellen konnten.

source site

Leave a Reply