Neue informelle Dokumente konzentrieren sich auf Ermittlungsanordnungen – EURACTIV.com

Aufdeckungsanordnungen stehen im Mittelpunkt mehrerer informeller Dokumente, die während der technischen Sitzungen dieser Woche im Europäischen Parlament über den Gesetzesentwurf zur Verhinderung von sexuellem Missbrauch von Kindern im Internet verteilt wurden.

Die vorgeschlagene Verordnung zielt darauf ab, Online-Material zum sexuellen Missbrauch von Kindern (CSAM) zu verhindern und zu bekämpfen, und verpflichtet digitale Plattformen in der EU dazu, solches Material zu erkennen und zu melden. Die meisten Änderungen in den neuesten Dokumenten zur Gesetzgebung betreffen Erkennungsanordnungen und damit verbundene freiwillige und obligatorische Maßnahmen.

Erkennungsbefehle

Es würden Erkennungsbefehle erlassen, um grünes Licht für die Erkennung von CSAM auf Plattformen zu geben. Was diese Anordnungen betrifft, scheint der Berichterstatter weiterhin der Meinung zu sein, dass es sich um ein letztes Mittel handeln sollte, das nur von den zuständigen Justizbehörden erlassen werden sollte.

Laut Javier Zarzalejos sollte die Definition von CSAM weiterhin alle drei Arten von Material umfassen, nämlich bekanntes, unbekanntes und präpariertes Material. „Bekannt“ bezieht sich auf Materialien, die bereits im Internet verbreitet wurden, während sich „unbekannt“ auf Materialien bezieht, die noch nicht entdeckt wurden.

Die meisten Änderungen, die in den diese Woche verteilten Dokumenten im Fall von Ermittlungsanordnungen hinzugefügt wurden, basierten jedoch auf früheren Vorschlägen des Ausschusses für Binnenmarkt und Verbraucherschutz des Europäischen Parlaments, der das Dossier leitet.

Erkennungsanordnungen müssen gezielte und verhältnismäßige Informationen enthalten, „den identifizierbaren Teil oder die identifizierbare Komponente des Dienstes oder die einzelnen Benutzer oder die spezifische betroffene Gruppe von Benutzern“. Auch die Geltungsdauer der Anordnungen muss verhältnismäßig sein.

Die Koordinierungsbehörde sollte nur dann Aufdeckungsanordnungen erlassen, wenn es Hinweise auf ein „erhebliches Risiko“ dafür gibt, dass der Dienst für den sexuellen Missbrauch von Kindern genutzt wird, oder wenn die Schadensbegrenzungsmaßnahmen des Diensteanbieters „keine ausreichende wesentliche Auswirkung auf die Begrenzung des festgestellten Risikos“ haben.

In dem Abschnitt heißt es auch, dass Erkennungsanordnungen „notwendig und verhältnismäßig“ seien und dass sie „ohne Gefährdung der Kommunikationssicherheit“ erlassen werden sollten.

Dienste, die sich nicht direkt an Kinder unter dreizehn Jahren richten, „können es Benutzern ermöglichen,“ Schadensbegrenzungsmaßnahmen „auf individueller Ebene“ rückgängig zu machen.

Auch auf Pornoseiten wäre eine Altersverifizierung Pflicht, während bei anderen Anbietern dieses Kriterium nicht mehr verpflichtend wäre.

Freiwillige vs. verpflichtende Maßnahmen

Ein informelles Rechtsgutachten, das auch EURACTIV eingesehen hat, wurde von Lazian Theo, Mitglied des Juristischen Dienstes des Europäischen Parlaments, auf Anfrage des Berichterstatters der CSAM-Akte abgegeben.

Dem Dokument zufolge schlug Renew Europe die Einführung freiwilliger Maßnahmen auf der Grundlage der Übergangsverordnung vor, die bis zum 3. August 2024 in Kraft ist, während der Berichterstatter freiwillige Erkennungsanordnungen auf der Grundlage der Erkennungsanordnungen der neuen Verordnung einführte. Hierzu wurde der Juristische Dienst um eine Stellungnahme gebeten.

Einige Dienste und Plattformen setzen im Zuge der Übergangsverordnung bereits freiwillige Erkennungsanordnungen in Bezug auf CSAM um. Es scheint jedoch, dass die Maßnahmen der neuen Verordnung als „notwendig und verhältnismäßig“ eingestuft werden, was sie verbindlich machen würde.

Sowohl freiwillige Maßnahmen als auch ein Rahmen für verbindliche Erkennungsanordnungen „würden im Widerspruch zum Hauptzweck des Vorschlags stehen, der darin besteht, einen klaren und einheitlichen Rahmen zu schaffen.“

Darüber hinaus könnten zwei unterschiedliche Rechtsgrundlagen für freiwillige und verpflichtende Maßnahmen „den Schutz der betroffenen Grundrechte untergraben“.

Dennoch könnten freiwillige Maßnahmen dennoch nützlich sein, um „einen reibungslosen Übergang“ zwischen der freiwilligen Regelung der Übergangsverordnung und der verbindlichen Regelung der neuen Verordnung sicherzustellen. EURACTIV hat erfahren, dass freiwillige Maßnahmen mit einer möglichen Übergangsfrist irgendwann auslaufen werden.

Nach dem informellen Rechtsgutachten des Juristischen Dienstes besteht eine der Optionen darin, in die neue Verordnung Bestimmungen aufzunehmen, die es den Anbietern ermöglichen würden, die freiwilligen Maßnahmen wie in der Übergangsverordnung bis zur Umsetzung der neuen Verordnung zu nutzen. Die Bestimmungen sollten den gleichen rechtlichen Rahmen haben (z. B. den gleichen Geltungsbereich haben).

Die andere Möglichkeit besteht darin, dass die neue Verordnung den entsprechenden Artikel der Übergangsverordnung direkt ändert, sodass ihre Anwendung „bis zum Datum der wirksamen Anwendung der neuen Verordnung, d. h. sechs Monate nach ihrem Inkrafttreten“ verlängert werden kann. In diesem Fall muss die neue Verordnung am 3. August 2024 in Kraft treten, „ansonsten läuft die Übergangsverordnung aus, bevor die Änderung in Kraft getreten ist.“

In jedem Fall wird in dem Dokument daran erinnert, dass die Übergangsmaßnahmen „zum Zeitpunkt des Inkrafttretens der neuen Verordnung gelten und nicht sechs Monate danach, wie es derzeit formuliert ist“.

Laut einem Kompromissentwurf, der auch EURACTIV vorliegt, müssen Anbieter von Software-App-Stores angeben, dass die Software-App „die Nutzung durch Kinder nicht zulässt oder dass die Software-App über ein Altersfreigabemodell verfügt.“ Wenn Apps nur mit Zustimmung der Eltern zugänglich sind, sollten sie außerdem sicherstellen, dass die Zustimmung der Eltern vorliegt.

Diesbezüglich kann die Kommission „in Zusammenarbeit mit den Koordinierungsbehörden und dem EU-Zentrum und nach Konsultation des Europäischen Datenschutzausschusses und nach Durchführung einer öffentlichen Konsultation“ Leitlinien herausgeben.

Kinderschutz oder Verletzung der Privatsphäre?

Die vorgeschlagene Verordnung zur Verhinderung und Bekämpfung von Online-Material zum sexuellen Missbrauch von Kindern (CSAM) würde digitale Plattformen in der EU dazu verpflichten, solches Material zu erkennen und zu melden.
Der Gesetzesentwurf spaltet die Menschen entweder in die Meinung …

EURACTIV hat außerdem erfahren, dass sich die technischen Treffen stärker auf die Rolle des geplanten EU-Zentrums konzentrieren, eines neuen zentralen Kompetenzzentrums zur Bekämpfung von CSAM.

[Edited by Alice Taylor]

Lesen Sie mehr mit EURACTIV


source site

Leave a Reply