ChatGPT betritt eine Welt voller Regulierungsprobleme in Europa – POLITICO

Drücken Sie Play, um diesen Artikel anzuhören

Von künstlicher Intelligenz geäußert.

ChatGPT hat sich auf eine harte Fahrt mit Europas mächtigen Datenschutzwächtern eingestellt.

Der Chatbot ist die heißeste Sensation der Technologie der künstlichen Intelligenz, wurde jedoch letzten Monat in Italien mit einem vorübergehenden Verbot belegt, weil er gegen das europäische Datenschutzregelwerk, die Allgemeine Datenschutzverordnung (DSGVO), verstoßen könnte.

Das italienische Verbot ist nur der Anfang der Probleme von ChatGPT, da es sich für Datenschutzfälle im gesamten Block öffnete und Spitzentechnologie einsetzt, die Regierungen über Risiken ärgert, die von Datenschutz bis hin zu Fehlinformationen, Cyberkriminalität, Betrug und Betrug bei Schulprüfungen reichen.

OpenAI, die Organisation, die ChatGPT ins Leben gerufen hat, hat ein Ziel auf dem Rücken: Sie hat keinen lokalen Hauptsitz in einem der 27 Länder der Europäischen Union eingerichtet, was bedeutet, dass die Datenschutzbehörde jedes Mitgliedslandes neue Untersuchungen einleiten und Verbote durchsetzen kann.

Zuvor sah sich Google in Frankreich mit einer DSGVO-Strafe in Höhe von 50 Millionen Euro konfrontiert, die verhängt wurde, bevor der US-Technologieriese seine europäische Rechtsstruktur in Irland formell zentralisierte. Auch TikTok sah sich mehreren Datenschutzuntersuchungen und Bußgeldern der niederländischen, italienischen und französischen Behörden gegenüber, bevor es 2021 legal in Irland eröffnet wurde.

Die europäischen Datenregulierungsbehörden erwägen ihre nächsten Schritte, um mutmaßlichen Missbrauch wie ihre italienischen Kollegen zu untersuchen.

Die irische Datenschutzkommission sagte, sie werde sich „mit der gesamten EU abstimmen [data protection authorities] in Bezug auf diese Angelegenheit“, so Sprecher Graham Doyle. Auch die belgische Datenschutzbehörde sagte, dass die potenziellen Verstöße von ChatGPT „bei diskutiert werden sollten [the] Europäisches Level.”

Die französische Datenschutzbehörde CNIL hat mindestens zwei Beschwerden gegen ChatGPT wegen Datenschutzverletzungen, einschließlich der DSGVO, erhalten, berichtete L’Informé.

In Norwegen „haben wir bisher keine Untersuchung zu ChatGPT eingeleitet, aber wir schließen nichts für die Zukunft aus“, sagte Tobias Judin, Leiter der internationalen Arbeit der Datenschutzbehörde des Landes, Datatilsynet.

Während OpenAI die Verletzung von EU-Datenschutzgesetzen bestritten hat, ist der Chief Executive Officer des Unternehmens Sam Altman genannt auf Twitter, dass sein Unternehmen „der italienischen Regierung“ das Verbot vorschlug – was scheinbar die unabhängige Aufsichtsbehörde des Landes mit der Regierung verwechselte.

„Italien ist eines meiner Lieblingsländer und ich freue mich darauf, es bald wieder zu besuchen“, sagte Altman.

Die italienische Datenschutzbehörde sagte am 6. April, dass OpenAI nach einem Videoanruf mit Führungskräften des Unternehmens offen dafür sei, potenzielle Verstöße gegen die EU-Datenschutzgesetze anzugehen.

Die europäischen Datenregulierungsbehörden erwägen ihre nächsten Schritte, um mutmaßlichen Missbrauch wie ihre italienischen Kollegen zu untersuchen | Nicolas Maeterlinck/BELGA MAG/AFP über Getty Images

Gesetze zu befolgen

Es ist nicht nur der Datenschutz, der KI-Systeme wie ChatGPT Anlass zur Sorge gibt.

Ende März beging ein junger Belgier Selbstmord nach wochenlangen Gesprächen mit einem KI-gesteuerten Chatbot namens Eliza, berichtete die belgische Zeitung La Libre. Letzten Monat forderte der Tech-Mogul Elon Musk zusammen mit Tausenden von KI-Experten eine Pause bei der Entwicklung von ChatGPT wegen „tiefgreifender Risiken für die Menschheit“.

Interessensgruppen sind diesem Beispiel gefolgt. In den USA hat das Center for AI and Digital Policy die American Federal Trade Commission aufgefordert, OpenAI zu untersuchen und weitere Veröffentlichungen seines Bots zu blockieren. In Brüssel bat die Verbraucherschutzbehörde BEUC die europäischen und nationalen Regulierungsbehörden, ChatGPT zu untersuchen, und warnte davor, dass das bevorstehende KI-Regelwerk der EU möglicherweise zu spät kommt, um Schaden abzuwenden.

Auch der europäische Gesetzgeber verhandelt im Rahmen eines Entwurfs eines EU-Artificial-Intelligence-Gesetzes über rechtliche Leitplanken der Technologie.

Aber das Fehlen einer Gesetzgebung zur künstlichen Intelligenz hat die Datenschutzbehörden ermutigt, einzugreifen.

„Datenschutzbehörden erkennen langsam, dass sie KI-Aufsichtsbehörden sind“, sagte Gabriela Zanfir-Fortuna vom Think Tank Future of Privacy Forum.

Datenschutzbehörden setzen die DSGVO durch, einschließlich ihrer Regeln zur Datenerfassung und zum Schutz der Benutzer vor automatisierter Entscheidungsfindung. Unternehmen wie OpenAI müssen eine Rechtsgrundlage haben, um personenbezogene Daten zu sammeln und zu verwenden, transparent sein, wie sie die Daten von Personen verwenden, personenbezogene Daten korrekt aufbewahren und den Personen ein Recht auf Berichtigung einräumen.

OpenAI hat nie offenbart, mit welchem ​​Datensatz das KI-Modell trainiert wurde, das dem Chatbot zugrunde liegt. Sogar Forscher von Microsoft, dem Hauptinvestor von OpenAI, sagten kürzlich in einer Veröffentlichung, dass sie „keinen Zugang zu den vollständigen Details von [ChatGPT] riesige Trainingsdaten.”

Das Gesichtserkennungsunternehmen Clearview AI wurde zuvor von den Datenschutzbehörden mit einer Geldstrafe belegt und angewiesen, die Bilder von Italienern, Franzosen und Briten zu löschen, die es online gesammelt hatte, um seinen Algorithmus zu erstellen, da es dafür keine Rechtsgrundlage gab.

Die Tatsache, dass ChatGPT im März einen Datenverstoß erlitten und Benutzergespräche und Zahlungsinformationen seiner Benutzer offengelegt hat, trägt nur zu seinen Leiden bei.

Die italienische Entscheidung, ChatGPT zu stoppen, ist „ein Weckruf“, sagte Dessislava Savova, Partnerin mit Schwerpunkt Technologie bei der Anwaltskanzlei Clifford Chance. „Sie wird tatsächlich einen Dialog in Europa auslösen und eine Positionsbestimmung beschleunigen von anderen Regulierungsbehörden.“

Laura Kayali trug zur Berichterstattung bei.

Dieser Artikel wurde aktualisiert, um widerzuspiegeln, dass Interessengruppen, darunter BEUC, Regulierungsbehörden gebeten haben, ChatGPT zu untersuchen, und um neue Entwicklungen in Bezug auf die Arbeit der italienischen und französischen Regulierungsbehörden an OpenAI widerzuspiegeln.


source site

Leave a Reply