Twitters Content-Moderation vor Gericht in Paris – POLITICO

Drücken Sie Play, um diesen Artikel anzuhören

PARIS – Ein französisches Gericht wird am Donnerstag einen Fall verhandeln, der das bestgehütete Geheimnis von Twitter aufklären soll: Wie viel das soziale Netzwerk in den Kampf gegen illegale Inhalte investiert.

Die Social-Media-Plattform, die gegen eine Gruppe von vier NGOs antritt, darunter auch SOS-Racism, SOS-Homophobie und die Union französisch-jüdischer Studenten, wird vor dem Pariser Berufungsgericht argumentieren, dass sie keine detaillierten Informationen über interne Prozesse preisgeben muss.

Der Fall berührt ein Kernthema, das Politiker und Forscher in Bezug auf die Regulierung von Plattformen seit langem beschäftigt: Die tatsächlichen – personellen und finanziellen – Mittel zur Moderation illegaler und schädlicher Inhalte. Bisher haben Unternehmen wie Twitter, Facebook und YouTube von Google gezögert, detaillierte und spezifische Informationen über die Anzahl der Inhaltsmoderatoren nach Ländern und/oder Sprachen zu veröffentlichen.

Laut französischen NGOs unternimmt Twitter nicht genug gegen Hassreden im Internet. Im Juli ordnete ein Gericht an, dass das Unternehmen sehr spezifische Informationen darüber preisgibt, wie es Inhalte überwacht – eine Premiere in Europa.

Laut dem Gerichtsurteil, entschied jedoch, gegen die Entscheidung Berufung einzulegen.

In Brüssel soll mit dem Digital Services Act – dem derzeit in Brüssel diskutierten EU-Regelwerk für die Moderation von Inhalten – auch die Transparenz der Moderationspraktiken erhöht werden.

Das Europäische Parlament möchte, dass Plattformen über “die vollständige Anzahl der für jede Amtssprache pro Mitgliedstaat zugewiesenen Inhaltsmoderatoren” berichten, so ein kürzlich von POLITICO erhaltener Text. Die EU-Länder wollen, dass sogenannte sehr große Plattformen mit mehr als 45 Millionen Nutzern im Block “die Humanressourcen, die … der Inhaltsmoderation gewidmet sind, detailliert beschreiben”.

Es ist noch unklar, ob der endgültige Text, der zwischen den beiden Institutionen eingeführt wurde, Twitter, das möglicherweise nicht als “sehr große Plattform” gilt, tatsächlich dazu zwingen würde, die genaue Anzahl der Moderatoren anzugeben.

Poster Kind

In Paris und Brüssel beklagt der Gesetzgeber seit langem die mangelnde Transparenz bei den Mitteln der Online-Plattformen zur Moderation von Inhalten.

“Moderation: Die Undurchsichtigkeit bei der Anzahl der Moderatoren und deren Ausbildung kann nicht weitergehen” getwittert Laetitia Avia, eine Abgeordnete der Partei La République en Marche von Emmanuel Macron, als der Gesetzgeber die nationalen Regeln für Plattformen bewertete.

Der Twitter-Fall ist nicht der einzige gezielte Prozesse von Technologieunternehmen zur Bekämpfung illegaler und schädlicher Inhalte: Im März dieses Jahres reichte Reporter ohne Grenzen eine Beschwerde gegen Facebook ein und argumentierte, dass das wahrgenommene Fehlen von Inhaltsmoderation “betrügerischen Geschäftspraktiken” gleichkommt.

Aber in Frankreich ist Twitter zu einem Aushängeschild für Hassreden im Internet geworden.

Im November wurden sieben Personen verurteilt, nachdem sie antisemitische Tweets über einen Kandidaten für die Miss France verschickt hatten, während der Anwalt der Zivilpartei “Twitters Nachlässigkeit” kritisierte.

Laut Samuel Lejoyeux, Präsident der Union der französischen jüdischen Studenten, ein Experiment, das von den vier NGOs im Jahr 2020 durchgeführt wurde – was zur Einleitung des Gerichtsverfahrens führte – zeigt, dass Twitter das „schwarze Schaf“ unter den Online-Plattformen ist.

„Ich sage nicht, dass die Situation bei Facebook und YouTube perfekt ist, aber es wird versucht, zu moderieren“, sagte er Hass- und Beleidigungskultur [proliferate], es ist die Grundlage des Geschäftsmodells.”

Twitter lehnte es ab, diese Geschichte zu kommentieren.

Hate Speech-Tests

Der am Donnerstag gehörte Fall begann während der ersten Sperrung im Zusammenhang mit dem Coronavirus im Frühjahr 2020.

Die vier französischen NGOs beschlossen im Mai letzten Jahres, rechtliche Schritte gegen Twitter einzuleiten, da das US-Unternehmen nicht genug unternahm, um Hassreden aus dem Internet zu entfernen.

Sie sagten, sie hätten herausgefunden, dass die Microblogging-Plattform nur 11,4 Prozent der hasserfüllten, „offensichtlich rechtswidrigen“ Tweets entfernt habe, die sie in einem Experiment vom 17. März bis 5. Mai 2020 gemeldet hatten. Im Vergleich dazu fanden die Organisationen heraus, dass Facebook 67,9 Prozent der gemeldeten Inhalte entfernte.

Gemäß der E-Commerce-Richtlinie ist Twitter verpflichtet, als illegal gekennzeichnete Inhalte „schnell“ zu entfernen.

Im Juli dieses Jahres, nach gescheiterten Versuchen, den Fall außergerichtlich zu vermitteln, ordnete das Gericht Twitter an, Unterlagen zur Moderation von Inhalten an Nichtregierungsgruppen weiterzugeben.

Twitter, das normalerweise keine Informationen über Inhaltsmoderatoren bereitstellt, musste die Anzahl, den Standort, die Nationalität und die Sprache der Personen angeben, die für die Verarbeitung französischer Inhalte verantwortlich sind, die von der Plattform gemeldet wurden, sowie die Anzahl der gemeldeten Posts aus Entschuldigungsgründen wegen Verbrechen gegen die Menschlichkeit und Aufstachelung zum Rassenhass; wie viele davon wurden entfernt; und wie viele Informationen an die Behörden übermittelt wurden.

Das US-Unternehmen kam dem bislang nicht nach und beschloss, stattdessen Berufung einzulegen.

Clothilde Goujard steuerte die Berichterstattung bei.

Dieser Artikel ist Teil von POLITIK‘s Premium-Tech-Police-Abdeckung: Pro Technology. Unser Expertenjournalismus und unsere Suite von Policy Intelligence-Tools ermöglichen es Ihnen, die Entwicklungen und Interessenvertreter, die die EU-Technologiepolitik prägen und Entscheidungen mit Auswirkungen auf Ihre Branche treffen, nahtlos zu suchen, zu verfolgen und zu verstehen. Email [email protected] mit dem Code ‘TECH’ für eine kostenlose Testversion.

.
source site

Leave a Reply