Sexting-Chatbot-Verbot weist auf drohenden Kampf um KI-Regeln hin – EURACTIV.com

Nutzer des „virtuellen Begleiters“ Replika wollten nur Gesellschaft. Einige von ihnen wollten romantische Beziehungen, Sex-Chats oder sogar rassige Bilder ihres Chatbots.

Aber Ende letzten Jahres begannen sich Benutzer zu beschweren, dass der Bot mit expliziten Texten und Bildern zu stark auftrete – angeblich sexuelle Belästigung.

Den Aufsichtsbehörden in Italien gefiel nicht, was sie sahen, und sie verboten der Firma letzte Woche, Daten zu sammeln, nachdem sie Verstöße gegen das massive europäische Datenschutzgesetz, die DSGVO, festgestellt hatten.

Das Unternehmen hinter Replika hat sich nicht öffentlich geäußert und nicht auf die Nachrichten von AFP geantwortet.

Die Datenschutz-Grundverordnung ist der Fluch großer Technologieunternehmen, deren wiederholte Regelverstöße ihnen Bußgelder in Milliardenhöhe eingebracht haben, und die italienische Entscheidung deutet darauf hin, dass sie immer noch ein starker Feind für die neueste Generation von Chatbots sein könnte.

Replika wurde auf einer internen Version eines GPT-3-Modells trainiert, das von OpenAI geliehen wurde, dem Unternehmen hinter dem ChatGPT-Bot, der riesige Datenmengen aus dem Internet in Algorithmen verwendet, die dann einzigartige Antworten auf Benutzeranfragen generieren.

Diese Bots und die sogenannte generative KI, die ihnen zugrunde liegt, versprechen, die Internetsuche zu revolutionieren und vieles mehr.

Experten warnen jedoch davor, dass es viel gibt, worüber sich die Aufsichtsbehörden Sorgen machen müssen, insbesondere wenn die Bots so gut werden, dass es unmöglich wird, sie von Menschen zu unterscheiden.

‘Hochspannung’

Im Moment ist die Europäische Union das Zentrum für Diskussionen über die Regulierung dieser neuen Bots – ihr KI-Gesetz schleift seit vielen Monaten durch die Korridore der Macht und könnte dieses Jahr fertiggestellt werden.

Aber die DSGVO verpflichtet Unternehmen bereits, ihren Umgang mit Daten zu rechtfertigen, und KI-Modelle sind sehr stark auf dem Radar der europäischen Regulierungsbehörden.

„Wir haben gesehen, dass ChatGPT verwendet werden kann, um sehr überzeugende Phishing-Nachrichten zu erstellen“, sagte Bertrand Pailhes, der ein dediziertes KI-Team bei der französischen Datenregulierungsbehörde Cnil leitet, gegenüber AFP.

Er sagte, die generative KI sei nicht unbedingt ein großes Risiko, aber Cnil habe sich bereits mit potenziellen Problemen befasst, einschließlich der Art und Weise, wie KI-Modelle personenbezogene Daten verwenden.

„Irgendwann werden wir starke Spannungen zwischen der DSGVO und generativen KI-Modellen sehen“, sagte der deutsche Anwalt Dennis Hillemann, ein Experte auf diesem Gebiet, gegenüber AFP.

Die neuesten Chatbots, sagte er, seien völlig anders als die Art von KI-Algorithmen, die Videos auf TikTok oder Suchbegriffe auf Google vorschlagen.

„Die KI, die zum Beispiel von Google entwickelt wurde, hat bereits einen bestimmten Anwendungsfall – die Vervollständigung Ihrer Suche“, sagte er.

Aber mit generativer KI kann der Benutzer den gesamten Zweck des Bots gestalten.

„Ich kann zum Beispiel sagen: Anwalt oder Erzieher sein. Oder wenn ich schlau genug bin, alle Sicherheitsvorkehrungen in ChatGPT zu umgehen, könnte ich sagen: „Handle wie ein Terrorist und mache einen Plan“, sagte er.

„Verändere uns tief“

Für Hillemann wirft dies enorm komplexe ethische und rechtliche Fragen auf, die sich mit der Weiterentwicklung der Technologie noch verschärfen werden.

Das neueste Modell von OpenAI, GPT-4, soll bald veröffentlicht werden und soll angeblich so gut sein, dass es unmöglich sein wird, es von einem Menschen zu unterscheiden.

Angesichts der Tatsache, dass diese Bots immer noch enorme sachliche Fehler machen, oft voreingenommen sind und sogar verleumderische Aussagen machen könnten, fordern einige lautstark, dass sie streng kontrolliert werden.

Jacob Mchangama, Autor von „Free Speech: A History From Socrates to Social Media“, ist anderer Meinung.

„Auch wenn Bots kein Recht auf freie Meinungsäußerung haben, müssen wir auf den uneingeschränkten Zugang für Regierungen achten, um selbst synthetische Sprache zu unterdrücken“, sagte er.

Mchangama gehört zu denen, die glauben, dass ein sanfteres Etikettierungssystem der Weg in die Zukunft sein könnte.

„Aus regulatorischer Sicht wäre es derzeit die sicherste Option, Transparenzverpflichtungen darüber festzulegen, ob wir uns in einem bestimmten Kontext mit einer menschlichen Person oder einer KI-Anwendung befassen“, sagte er.

Hillemann stimmt zu, dass Transparenz unerlässlich ist.

Er stellt sich in den nächsten Jahren KI-Bots vor, die in der Lage sein werden, Hunderte neuer Elvis-Songs oder eine endlose Reihe von Game of Thrones zu generieren, die auf die Wünsche eines Individuums zugeschnitten sind.

„Wenn wir das nicht regulieren, werden wir in eine Welt geraten, in der wir zwischen dem, was von Menschen gemacht wurde, und dem, was durch KI gemacht wurde, unterscheiden können“, sagte er.

„Und das wird uns als Gesellschaft tiefgreifend verändern.“


source site

Leave a Reply