EU-Bewertung von Tools zur Erkennung von Kindesmissbrauch basierend auf Branchendaten – EURACTIV.com

Die Kommission verwendete Daten über die Genauigkeit und Präzision von KI-Tools, um online Material über sexuellen Missbrauch von Kindern (CSAM) ausschließlich von Meta und einem anderen Technologieunternehmen zu erkennen, wie ein Antrag auf Zugang zu Dokumenten des ehemaligen Europaabgeordneten Felix Reda zeigte.

Unabhängige Recherchen, Kontrolltests oder weitere Details zu den zugrunde liegenden Datensätzen der Technologieunternehmen wurden bei der Folgenabschätzung für den Vorschlag der CSAM-Verordnung nicht berücksichtigt.

Der EU-Vorschlag sieht die Möglichkeit vor, gerichtliche Anordnungen zu erlassen, die das Scannen verschlüsselter Kommunikation zur Aufdeckung von CSAM verlangen, was Bedenken auslöst, dass dies Tür und Tor für massive Mengen falsch positiver privater Inhalte öffnen könnte, die an die Strafverfolgungsbehörden weitergegeben werden.

Um dieser Kritik zu begegnen, veröffentlichte die EU-Kommissarin für Inneres Ylva Johansson, die die Akte leitet, a Blogeintrag am 7.8 dass für die Erkennung von neuem Material über sexuellen Missbrauch von Kindern eine Technologie mit einer Genauigkeitsrate von 99,9 % verfügbar ist.

Am folgenden Tag schickte Felix Reda, ein ehemaliger EU-Gesetzgeber, der jetzt für die gemeinnützige Organisation Gesellschaft für Freiheitsrechte arbeitet, eine Informationsfreiheitsanfrage (FOI) an die EU-Exekutive und fragte nach den Quellen dieser Genauigkeitsrate.

In seinem Antwort über AskTheEU, die sich ausnahmsweise auch nach der Fristverlängerung noch um Wochen verzögerte, nannte die Kommission das Handelsprodukt Safer von Meta und Thorn als Datenlieferanten. Entsprechend Dorn„neueste Tests“ des Klassifizierungsmodells von Safer zeigen eine Genauigkeitsrate von 99 %.

„Auf technischer Ebene ist es für ein Unternehmen einfach nicht sinnvoll zu sagen, dass es einen Test durchgeführt hat, und eine gewisse Genauigkeit anzugeben, wenn die genauen Testdaten nicht bekannt sind“, sagte Reda gegenüber EURACTIV.

Im offenen Internet könne es sein, dass die Zahl der fälschlicherweise erkannten Inhalte deutlich größer sei, weil der Anteil von CSAM-Inhalten auf allen Messenger-Diensten wohl sehr gering sei, so Reda weiter.

Die Zahl der Fehlalarme ist relevant, weil harmlose Nachrichten, Chats und Fotos von unschuldigen Personen mit expliziten Inhalten auf den Bildschirmen von Ermittlern landen könnten.

Thorn hat EURACTIV nicht rechtzeitig zur Veröffentlichung Details zu den Datensätzen und Methoden für ihre Tests zur Verfügung gestellt.

Außerdem hätte die Kommission selbst Tests durchführen sollen, anstatt sich auf Unternehmen zu verlassen, die in Zukunft als Anbieter von Chat-Steuerungssoftware selbst profitieren könnten, argumentiert Reda.

Die Kommission stellte ihren Vorschlag zur Verhinderung und Bekämpfung von CSAM im Mai 2022 vor und löste aufgrund ihres Vorschlags einer allgemeinen Scanpflicht für Messaging-Dienste und des Risikos einer Aufhebung der Ende-zu-Ende-Verschlüsselung Gegenreaktionen aus, so EURACTIV gemeldet.

Im Juli verabschiedeten der Europäische Datenschutzausschuss und der Europäische Datenschutzbeauftragte eine gemeinsame Stellungnahme, in der sie erklärten, dass der Vorschlag in seiner derzeitigen Form möglicherweise mehr Risiken für Drittpersonen birgt als für die Kriminellen, die sie für CSAM verfolgen wollen.

Am kommenden Montag wird Kommissar Johansson den Vorschlag dem vorlegen Ausschuss für bürgerliche Freiheiten, Justiz und Inneres (LIBE), der Verhandlungen im Parlament aufnehmen wird. Der Rat arbeitet bereits an dem Text, befasst sich aber noch nicht mit den umstrittenen Filterpflichten.

Die Kommission reagierte nicht sofort auf die Anfrage von EURACTIV, um eine Stellungnahme abzugeben.

[Edited by Luca Bertuzzi/Nathalie Weatherald]


source site

Leave a Reply