Apple beruft sich auf Datenschutzbedenken, um die Erkennung von Material über sexuellen Kindesmissbrauch zu verweigern – EURACTIV.com

Der US-Technologieriese Apple, der im vergangenen Dezember beschlossen hatte, die Entwicklung eines Fotoscanning-Tools zur Erkennung von Material über sexuellen Missbrauch von Kindern einzustellen, nannte nun Datenschutzbedenken als Hauptgrund für die Entscheidung.

Während Apple Ende letzten Jahres seine Entscheidung bekannt gab, das Foto-Scan-Tool abzuschaffen, lieferten sie erst am vergangenen Donnerstag (31. August) eine Erklärung, dank eines Austauschs zwischen einem Apple-Manager und dem Leiter eines Unternehmens, das gegen sexuellen Missbrauch von Kindern kämpft .

Erik Neuenschwander, Direktor für Benutzerdatenschutz und Kindersicherheit bei Apple, erläuterte die Entscheidung des Unternehmens in einer E-Mail an Sarah Gardner, CEO der Heat Initiative, die Technologieunternehmen dazu ermutigt, „Bilder und Videos von sexuellem Missbrauch von Kindern auf ihren Plattformen zu erkennen und zu beseitigen“. ” Der Austausch wurde veröffentlicht von Verdrahtet.

Laut Neuenschwander hat Apple „die Scan-Technologie aus praktisch jedem Blickwinkel geprüft“ und „kam zu dem Schluss, dass eine Implementierung praktisch nicht möglich war, ohne letztendlich die Sicherheit und Privatsphäre unserer Benutzer zu gefährden“, heißt es in der E-Mail.

Solche Bedenken stehen seit der Einführung des EU-Gesetzesentwurfs zur Erkennung und Entfernung von Online-Material über sexuellen Kindesmissbrauch (CSAM) im Mittelpunkt der Kontroverse.

Nun hat jedoch, wie Gardner es ausdrückte, „das wertvollste und prestigeträchtigste Technologieunternehmen der Welt“ und „ein weltweit führender Anbieter von Benutzerdatenschutz“ öffentlich zum Ausdruck gebracht, dass das Scannen von Material ihrer Ansicht nach nicht mit der Privatsphäre der Benutzer einhergehen darf. Privatsphäre.

Kinderschutz oder Verletzung der Privatsphäre?

Die vorgeschlagene Verordnung zur Verhinderung und Bekämpfung von Online-Material zum sexuellen Missbrauch von Kindern (CSAM) würde digitale Plattformen in der EU dazu verpflichten, solches Material zu erkennen und zu melden.
Der Gesetzesentwurf spaltet die Menschen entweder in die Meinung …

„Das Scannen der privat gespeicherten iCloud-Inhalte jedes Benutzers“ hätte „schwerwiegende unbeabsichtigte Folgen für unsere Benutzer“, schrieb Neuenschwander.

Er warnte außerdem, dass das Scannen nach einem Inhaltstyp „die Tür für eine Massenüberwachung öffnet und den Wunsch wecken könnte, andere verschlüsselte Nachrichtensysteme nach Inhaltstypen (wie Bildern, Videos, Text oder Audio) und Inhaltskategorien zu durchsuchen“.

In ihrer E-Mail fragte Gardner: „Wie können Benutzer sicher sein, dass ein Tool für eine Art der Überwachung nicht umkonfiguriert wurde, um andere Inhalte wie politische Aktivitäten oder religiöse Verfolgung zu überwachen?“

Abschließend fügte Neuenschwander hinzu, dass Scansysteme „nicht narrensicher“ seien und es „dokumentierte Beweise von anderen Plattformen dafür gebe, dass unschuldige Parteien in dystopische Schleppnetze verwickelt wurden“, die sie „zu Opfern gemacht haben, obwohl sie nichts anderes getan haben, als völlig normale und angemessene Bilder zu teilen.“ ihrer Babys“.

Ella Jakubowska, leitende politische Beraterin beim europäischen Verband für digitale Rechte EDRi, teilte Apples Bedenken. „Aller gute Wille der Welt ändert nichts an der technischen Realität, dass es keine Möglichkeit gibt, verschlüsselte Nachrichten oder Dienste sicher zu scannen“, sagte sie gegenüber EURACTIV.

„Trotz jahrelanger Versuche hat Apple bewiesen, dass die Massenscan-Maßnahmen, die derzeit in der EU geprüft werden, nicht ihren Zweck erfüllen. Selbst die eigene Folgenabschätzung der Europäischen Kommission zeigt, dass es keinen allgemeinen Zugang zu privater Kommunikation auf sichere und datenschutzfreundliche Weise geben kann“, fügte sie hinzu.

Sexueller Missbrauch von Kindern: Neue informelle Dokumente konzentrieren sich auf Ermittlungsanordnungen

Aufdeckungsanordnungen stehen im Mittelpunkt mehrerer informeller Dokumente, die während der technischen Sitzungen dieser Woche im Europäischen Parlament über den Gesetzesentwurf zur Verhinderung von sexuellem Missbrauch von Kindern im Internet verteilt wurden.

Die vorgeschlagene Verordnung zielt darauf ab, sexuellen Missbrauch von Kindern im Internet zu verhindern und zu bekämpfen …

Doch einige Unternehmen, darunter die NGO Thorn, die sich für den Schutz von Kindern im Internet einsetzt und über die eigene Software Safer zur Erkennung von CSAM verfügt, scheinen anderer Meinung zu sein.

„Wir müssen aufhören, die Privatsphäre der Nutzer und die Sicherheit von Kindern gegeneinander auszuspielen, denn mit Tools wie denen von Thorn und anderen sowie einem angemessenen Rahmenwerk mit robusten Schutzmaßnahmen können wir beides erreichen“, sagte Emily Slifer, Direktorin für Politik bei Thorn, gegenüber EURACTIV .

Diese Tools seien „seit Jahren zuverlässig im Einsatz“ und würden „von Tag zu Tag verbessert“, fügte sie hinzu.

Laut Slifer verfügt Apple über das Wissen und die Expertise, „Lösungen zu entwickeln, die sowohl Privatsphäre als auch Kindersicherheit in Einklang bringen.“ Es braucht mehr Lösungen, die darauf abzielen, die richtige Balance zu finden.“

EURACTIV wandte sich auch an Javier Zarzalejos, einen EU-Gesetzgeber und Berichterstatter des Europäischen Parlaments für die CSAM-Akte.

„Eines der Leitprinzipien der Verordnung ist die Technologieneutralität. Daher verbietet oder bevorzugt die Verordnung keine bestimmten Tools oder Technologien für die Anbieter, um ihren Verpflichtungen aus der Verordnung nachzukommen, solange diese Technologien und Tools bestimmte Schutzmaßnahmen einhalten.“ Sagte Zarzalejos.

Er fügte außerdem hinzu, dass die kommenden On-Set-Device-Tools von Apple in die möglichen Abhilfemaßnahmen einbezogen werden.

[Edited by Zoran Radosavljevic]

Lesen Sie mehr mit EURACTIV


source site

Leave a Reply