Ein Skandal im Stil von Cambridge Analytica für KI steht bevor

Das atemberaubende Tempo der Entwicklung bedeutet, dass die Datenschutzbehörden auf einen weiteren Skandal wie Cambridge Analytica vorbereitet sein müssen, sagt Wojciech Wiewiórowski, der Datenwächter der EU.

Wiewiórowski ist der europäische Datenschutzbeauftragte, und er ist eine mächtige Persönlichkeit. Seine Aufgabe besteht darin, die EU für ihre eigenen Datenschutzpraktiken zur Rechenschaft zu ziehen, den neuesten Stand der Technik zu überwachen und bei der Koordinierung der Durchsetzung innerhalb der Union zu helfen. Ich habe mit ihm über die Lehren gesprochen, die wir aus dem letzten Jahrzehnt im Technologiebereich lernen sollten, und darüber, was die Amerikaner über die Datenschutzphilosophie der EU verstehen müssen. Hier ist, was er zu sagen hatte.

Was Technologieunternehmen lernen sollten: Diese Produkte sollten von Anfang an über Datenschutzfunktionen verfügen. „Es ist jedoch nicht einfach, die Unternehmen davon zu überzeugen, dass sie auf Privacy-by-Design-Modelle setzen sollten, wenn sie sehr schnell liefern müssen“, sagt er. Cambridge Analytica bleibt die beste Lehre dafür, was passieren kann, wenn Unternehmen beim Datenschutz sparen, sagt Wiewiórowski. Das Unternehmen, das zu einem der größten Werbeskandale von Facebook wurde, hatte die persönlichen Daten von zig Millionen Amerikanern von ihren Facebook-Konten gelöscht, um zu versuchen, ihre Abstimmung zu beeinflussen. Es sei nur eine Frage der Zeit, bis wir einen weiteren Skandal sehen, fügt er hinzu.

Was Amerikaner über die Datenschutzphilosophie der EU wissen müssen: „Der europäische Ansatz hängt mit dem Zweck zusammen, für den Sie die Daten verwenden. Wenn Sie also den Zweck ändern, für den die Daten verwendet werden, und insbesondere wenn Sie dies gegen die Informationen tun, die Sie den Menschen zur Verfügung stellen, verstoßen Sie gegen das Gesetz“, sagt er. Nehmen Sie Cambridge Analytica. Der größte Rechtsverstoß bestand nicht darin, dass das Unternehmen Daten sammelte, sondern dass es behauptete, Daten für wissenschaftliche Zwecke und Tests zu sammeln, und sie dann für einen anderen Zweck verwendete – hauptsächlich, um politische Profile von Personen zu erstellen. Dies ist ein Hinweis der Datenschutzbehörden in Italien, die ChatGPT dort vorübergehend verboten haben. Die Behörden behaupten, OpenAI habe die Daten, die es verwenden wollte, illegal gesammelt und den Menschen nicht mitgeteilt, wie es sie verwenden wollte.

Hemmt Regulierung Innovationen? Dies ist eine häufige Behauptung unter Technologen. Wiewiórowski sagt, die eigentliche Frage, die wir uns stellen sollten, lautet: Sind wir wirklich sicher, dass wir Unternehmen uneingeschränkten Zugriff auf unsere personenbezogenen Daten gewähren wollen? „Ich glaube nicht, dass die Vorschriften … Innovationen wirklich stoppen. Sie versuchen, es zivilisierter zu machen“, sagt er. Schließlich schützt die DSGVO nicht nur personenbezogene Daten, sondern auch den Handel und den freien Datenverkehr über Grenzen hinweg.

Big Tech ist die Hölle auf Erden? Europa ist nicht das einzige, das mit Tech Hardball spielt. Wie ich letzte Woche berichtete, denkt das Weiße Haus über Regeln für die Rechenschaftspflicht von KI nach, und die Federal Trade Commission ist sogar so weit gegangen, Unternehmen zu fordern, ihre Algorithmen und alle Daten zu löschen, die möglicherweise illegal gesammelt und verwendet wurden, wie es bei Weight Watchers der Fall war im Jahr 2022. Wiewiórowski sagt, er freue sich, dass Präsident Biden Technologieunternehmen auffordere, mehr Verantwortung für die Sicherheit ihrer Produkte zu übernehmen, und finde es ermutigend, dass sich das politische Denken der USA mit den europäischen Bemühungen konvergiere, KI-Risiken zu verhindern und Unternehmen Schaden zuzufügen . „Einer der großen Player auf dem Technologiemarkt hat einmal gesagt: ‚Die Definition der Hölle ist europäische Gesetzgebung mit amerikanischer Durchsetzung’“, sagt er.

Lesen Sie mehr auf ChatGPT

Die Insider-Geschichte, wie ChatGPT aufgebaut wurde, von den Leuten, die es gemacht haben

source site

Leave a Reply