Bei der Überwachung des sexuellen Missbrauchs von Kindern steht Apple im Spannungsfeld zwischen Sicherheit und Datenschutz

Im Jahr 2021 war Apple in eine Kontroverse über einen Plan verwickelt, iPhones auf Materialien zum sexuellen Missbrauch von Kindern zu scannen. Datenschutzexperten warnten davor, dass Regierungen das System missbrauchen könnten, und die Gegenreaktion war so heftig, dass Apple den Plan schließlich aufgab.

Zwei Jahre später sieht sich Apple mit Kritik von Verfechtern der Kindersicherheit und aktivistischen Investoren konfrontiert, die das Unternehmen auffordern, mehr zu tun, um Kinder vor Online-Missbrauch zu schützen.

Eine Kinderrechtsgruppe, die Heat Initiative, hat 2 Millionen US-Dollar für eine neue landesweite Werbekampagne gesammelt, in der Apple aufgefordert wird, Materialien zum sexuellen Missbrauch von Kindern zu erkennen, zu melden und aus iCloud, seiner Cloud-Speicherplattform, zu entfernen.

Nächste Woche wird die Gruppe digitale Anzeigen auf bei politischen Entscheidungsträgern in Washington beliebten Websites wie Politico veröffentlichen. Außerdem werden in San Francisco und New York Plakate angebracht, auf denen steht: „Materialien über sexuellen Missbrauch von Kindern werden auf iCloud gespeichert.“ Apple erlaubt es.“

Die Kritik weist auf eine missliche Lage hin, die Apple seit Jahren beschäftigt. Das Unternehmen hat den Schutz der Privatsphäre zu einem zentralen Bestandteil seiner iPhone-Präsenz gegenüber Verbrauchern gemacht. Aber dieses Sicherheitsversprechen hat dazu beigetragen, dass seine Dienste und Geräte, von denen zwei Milliarden im Einsatz sind, nützliche Werkzeuge für den Austausch von Bildern über sexuellen Kindesmissbrauch sind.

Das Unternehmen ist gefangen zwischen Kinderschutzgruppen, die mehr tun wollen, um die Verbreitung solcher Materialien zu stoppen, und Datenschutzexperten, die wollen, dass das Versprechen sicherer Geräte eingehalten wird.

Eine Gruppe von zwei Dutzend Investoren mit einem verwalteten Vermögen von fast einer Billion US-Dollar hat Apple außerdem aufgefordert, die Anzahl der missbräuchlichen Bilder, die das Unternehmen auf seinen Geräten und Diensten erfasst, öffentlich zu melden.

Zwei Investoren – Degroof Petercam, ein belgischer Vermögensverwalter, und Christian Brothers Investment Services, eine katholische Investmentfirma – werden diesen Monat einen Aktionärsvorschlag einreichen, der Apple dazu verpflichten würde, einen detaillierten Bericht darüber vorzulegen, wie wirksam seine Sicherheitsinstrumente beim Schutz von Kindern waren.

„Apple scheint zwischen Datenschutz und Action zu stecken“, sagte Matthew Welch, Investmentspezialist bei Degroof Petercam. „Wir dachten, ein Vorschlag würde das Management aufrütteln und dazu bringen, die Sache ernster zu nehmen.“

Apple hat schnell auf die Befürworter der Kindersicherheit reagiert. Anfang August trafen sich die Datenschutzbeauftragten mit der Investorengruppe, sagte Herr Welch. Dann, am Donnerstag, antwortete das Unternehmen auf eine E-Mail der Heat Initiative mit einem Brief, in dem es seine Entscheidung verteidigte, iCloud nicht zu scannen. Es teilte die Korrespondenz mit Wired, einer Technologiepublikation.

In Apples Brief sagte Erik Neuenschwander, Direktor für Benutzerdatenschutz und Kindersicherheit, das Unternehmen sei zu dem Schluss gekommen, dass es „praktisch nicht möglich“ sei, iCloud-Fotos zu scannen, ohne „die Sicherheit und Privatsphäre unserer Benutzer zu gefährden“.

„Das Scannen nach einer Art von Inhalten öffnet beispielsweise die Tür für Massenüberwachung und könnte den Wunsch wecken, andere verschlüsselte Nachrichtensysteme zu durchsuchen“, sagte Herr Neuenschwander.

Apple, fügte er hinzu, habe eine neue Standardfunktion für alle Kinderkonten erstellt, die eine Warnung auslöst, wenn sie Nacktbilder erhalten oder zu senden versuchen. Es soll die Erstellung von neuem Material über sexuellen Kindesmissbrauch verhindern und das Risiko begrenzen, dass Kriminelle Kinder für Geld oder Nacktbilder nötigen und erpressen. Diese Tools wurden auch App-Entwicklern zur Verfügung gestellt.

Im Jahr 2021 kündigte Apple an, eine Technologie namens Bild-Hashes einzusetzen, um missbräuchliches Material auf iPhones und in iCloud zu erkennen.

Doch das Unternehmen versäumte es, diesen Plan umfassend mit Datenschutzexperten zu kommunizieren, was deren Skepsis verstärkte und die Sorge schürte, dass Regierungen die Technologie missbrauchen könnten, sagte Alex Stamos, der Direktor des Stanford Internet Observatory am Cyber ​​Policy Center, der die Idee ablehnte.

Letztes Jahr gab das Unternehmen seinen Plan, iCloud zu scannen, diskret auf und überraschte damit Kindersicherheitsgruppen.

Apple hat sowohl von Datenschutz- als auch von Kindersicherheitsgruppen Lob für seine Bemühungen erhalten, die Erstellung neuer Nacktbilder auf iMessage und anderen Diensten einzudämmen. Aber Herr Stamos, der die Entscheidung des Unternehmens, keine iPhones zu scannen, begrüßte, sagte, es könne mehr tun, um Menschen davon abzuhalten, problematische Bilder in der Cloud zu teilen.

„Sie können Privatsphäre haben, wenn Sie etwas für sich selbst aufbewahren, aber wenn Sie etwas mit jemand anderem teilen, haben Sie nicht die gleiche Privatsphäre“, sagte Herr Stamos.

Regierungen auf der ganzen Welt üben Druck auf Apple aus, Maßnahmen zu ergreifen. Letztes Jahr veröffentlichte der eSafety-Beauftragte in Australien einen Bericht, in dem er Apple und Microsoft dafür kritisierte, dass sie ihre Dienste nicht proaktiv auf missbräuchliches Material überwachen.

In den Vereinigten Staaten erstattete Apple im Jahr 2021 160 Meldungen an das National Center for Missing and Exploited Children, eine bundesweit benannte Clearingstelle für missbräuchliches Material. Google hat 875.783 Meldungen erstellt, Facebook 22 Millionen. Diese Berichte spiegeln nicht immer wirklich beleidigendes Material wider; Die Google-Konten einiger Eltern wurden gesperrt und sie wurden bei der Polizei angezeigt, weil Bilder ihrer Kinder nicht krimineller Natur waren.

Die Heat Initiative hat ihre Kampagne vor der jährlichen iPhone-Enthüllung von Apple geplant, die für den 12. September geplant ist. Die Kampagne wird von Sarah Gardner geleitet, die zuvor Vizepräsidentin für externe Angelegenheiten bei Thorn war, einer von Ashton Kutcher und Demi gegründeten gemeinnützigen Organisation Moore will sexuellen Missbrauch von Kindern im Internet bekämpfen. Frau Gardner sammelte Geld von einer Reihe von Unterstützern der Kindersicherheit, darunter der Children’s Investment Fund Foundation und der Oak Foundation.

Die Gruppe hat eine Website erstellt, die Strafverfolgungsfälle dokumentiert, in denen iCloud genannt wurde. Die Liste wird auch Anklagen wegen Kinderpornografie enthalten, die gegen einen 55-Jährigen in New York erhoben wurden, der mehr als 200 Bilder in iCloud gespeichert hatte.

Frau Gardner sagte, die Heat-Initiative habe geplant, den ganzen Herbst über gezielt Werbung in Bereichen zu schalten, in denen Apple-Kunden und -Mitarbeiter darauf stoßen würden. „Das Ziel besteht darin, die Taktik so lange fortzusetzen, bis Apple seine Richtlinien ändert“, sagte Frau Gardner.

Kaschmir-Hügel hat zur Berichterstattung beigetragen.

source site

Leave a Reply