Die Erkennung bekannter Inhalte ist nicht neu, aber das Potenzial zum Schutz von Kindern ist riesig – EURACTIV.com

Die mutigen Vorschläge der Europäischen Kommission, die Verbreitung von Material über sexuellen Missbrauch von Kindern (CSAM) im Internet in den Griff zu bekommen, gehören wahrscheinlich zu den bisher aggressivsten Maßnahmen im Kampf um den Schutz von Kindern im Internet, schreibt Dan Sexton.

Dan Sexton ist Chief Technical Officer bei der Internet Watch Foundation (IWF), einer britischen gemeinnützigen Organisation für Kindersicherheit.

Die neue Gesetzgebung würde von der Technologiebranche verlangen, bekannte und unbekannte Bilder und Videos von Kindern zu erkennen, die sexuellem Missbrauch, Vergewaltigung und sexueller Folter ausgesetzt sind.

Es würde sie auch beauftragen, Grooming-Material zu erkennen und zu verhindern und anstößige Inhalte einem neuen EU-Zentrum zur Bekämpfung der sexuellen Ausbeutung und des sexuellen Missbrauchs von Kindern zu melden.

Der obligatorische Nachweis dieses Materials ist grundsätzlich eine gute Sache. Unsere neuesten Zahlen zeigen, dass das Problem nicht verschwindet, und Kriminelle wenden sich immer noch an Server in EU-Staaten, um einige der abscheulichsten und verletzendsten Materialien zu hosten. Im Jahr 2021 stellten wir fest, dass 62 % des gesamten bekannten Materials über sexuellen Missbrauch von Kindern (CSAM) auf Server in einem EU-Mitgliedstaat zurückverfolgt wurden.

Die neuen Vorschläge haben echtes Potenzial, sich stark gegen diese kriminellen Inhalte zu wehren und Kindern und Missbrauchsopfern zu zeigen, dass sie geschützt werden.

Das Erkennen bekannter Inhalte ist erfolgreich, etabliert, effektiv und genau

Die neue Gesetzgebung würde Plattformen dazu verpflichten, bekanntes Material über sexuellen Missbrauch von Kindern aufzudecken, das ausgebildete Analysten bereits identifiziert haben.

Die Erkennung bekannter Inhalte wird von der Industrie seit über einem Jahrzehnt durchgeführt. Es ist erfolgreich, etabliert, effektiv und genau.

Es greift nicht in die Privatsphäre der Benutzer ein, es wird jeden Tag auf der ganzen Welt millionenfach – milliardenfach – verwendet. Das ist nichts Neues.

Die hier verwendete Technologie liest keine Nachrichten und scannt keine Telefone oder Fotos. Die Technologie wandelt Inhalte in Zahlen um und vergleicht sie mit einer anderen Zahlenliste. Wenn die Nummern übereinstimmen, wird es blockiert.

Wenn Sie das überall in einem regulierten Internet einsetzen, könnten Sie einem Kind, das uns ein Bild über unser Tool „Entfernen melden“ übermittelt hat, sagen, dass das Bild überall im regulierten Internet blockiert wird, weil es überall blockiert werden muss. Das ist, glaube ich, eine wirklich starke Sache.

Die Suche nach neuen Inhalten hilft, neue Opfer zu finden und zu schützen

Die neuen Regeln würden auch die Erkennung bisher unbekannter Bilder und Videos von sexuellem Missbrauch von Kindern fordern.

In diesen Fällen wäre künstliche Intelligenz (KI) erforderlich – maschinelle Lernwerkzeuge, die nach unbekannten Bildern suchen, von denen sie annimmt, dass sie mit hoher Wahrscheinlichkeit mit Missbrauch in Verbindung stehen.

Diese Tools haben ein enormes Potenzial, aber jeder Prozess muss durch menschliche Überprüfung unterstützt werden – ausgebildete Experten, die Material über sexuellen Missbrauch von Kindern verstehen und damit Erfahrung haben, wie unsere Analysten bei der IWF. Das ist der Schlüssel.

Diese Technologie befindet sich noch in der Entwicklungsphase, aber wir sehen Beispiele für ziemlich genaue und effektive Tools, die von der Industrie verwendet werden.

Das Wichtigste ist menschliche Mäßigung, da ich nicht denke, dass Maschinen Entscheidungen treffen sollten. Ich denke, Maschinen sollten Analysten helfen, damit sie diese Entscheidungen treffen können.

Es ist schwieriger, es richtig zu machen, aber die Vorteile sind unbestreitbar. Hier lohnt sich die Investition, denn sobald Sie neue Inhalte finden und in bekannte Inhalte umwandeln können, können Sie diese überall zuverlässig skalieren.

Das ist enorm wichtig und bedeutet auch eine größere Chance, neue Opfer zu finden und zu schützen.

Neue Inhalte können Inhalte sein, die gerade produziert wurden. In diesen Fällen besteht die Möglichkeit, dieses Opfer zu finden, zu retten und zu schützen, bevor seine Bilder immer wieder geteilt werden.

Je früher im Lebenszyklus dieses Materials Sie es fangen und stoppen können, desto größer ist Ihre Chance, die lebenslange erneute Viktimisierung dieses Kindes zu verhindern.

Was ist mit meiner Privatsphäre?

Datenschutz ist für alle wichtig, auch für Kinder. Ohne den Schutz privater Daten würden ganze Teile des Internets nicht funktionieren.

Das Recht auf Privatsphäre setzt jedoch andere Rechte nicht außer Kraft. Es ist nichts, was das Recht eines Kindes auf Sicherheit überwiegen sollte. Die neuen Vorschläge müssen verhältnismäßig angegangen werden, um sicherzustellen, dass die Rechte der Kinder geachtet werden.

Die neuen Vorschläge sagen nicht, dass überall im Internet nach diesen Inhalten gesucht werden muss – es ist tatsächlich sehr fokussiert.

Tatsächlich werden nur Plattformen, die zur Verbreitung von Material über sexuellen Missbrauch von Kindern verwendet werden oder bei denen ein hohes Risiko besteht, dass sie verwendet werden, aufgefordert, Maßnahmen zur Minderung dieses Risikos zu ergreifen.

Das heißt nicht, dass die Privatsphäre jedes Einzelnen verletzt wird oder dass jede Nachricht überall im Internet gescannt wird. Es ist bezeichnend, dass Sie, wenn Sie eine Plattform haben, auf der Bilder von sexuell missbrauchten Kindern geteilt werden, Anstrengungen unternehmen müssen, um dies zu verhindern.

Wenn wir wissen, dass eine Plattform Millionen von Meldungen generiert und dazu verwendet wird, sexuellen Missbrauch von Kindern zu verbreiten, sollten sie etwas dagegen unternehmen.

Das ist etwas ganz anderes als zu sagen, dass eine Plattform, auf der es keine Beweise für sexuellen Missbrauch von Kindern gibt, Schritte unternehmen muss, um sie aufzudecken. Es ist fokussiert und Sie setzen es nur an Orten ein, an denen ein Risiko für Material zum sexuellen Missbrauch von Kindern besteht. Dies ist etwas Wesentliches, das einige Kritiker einfach nicht verstehen.


source site

Leave a Reply