Islamische Extremisten umgehen Facebooks Content-Polizei – POLITICO

Fotos von Enthauptungen, extremistischer Propaganda und gewalttätigen Hassreden im Zusammenhang mit dem Islamischen Staat und den Taliban wurden im vergangenen Jahr monatelang in Facebook-Gruppen geteilt, obwohl der Social-Networking-Gigant behauptete, er habe verstärkt Anstrengungen unternommen, um solche Inhalte zu entfernen.

Die Beiträge – einige wurden über neue Facebook-Tools als „aufschlussreich“ und „engagierend“ gekennzeichnet, um die Interaktion mit der Gemeinschaft zu fördern – setzten sich für die Gewalt der islamischen Extremisten im Irak und in Afghanistan ein, darunter Videos von Selbstmordattentaten und Aufrufe, Rivalen in der gesamten Region und im Westen anzugreifen , laut einer Überprüfung der Social-Media-Aktivitäten zwischen April und Dezember. Mindestens eine der Gruppen umfasste mehr als 100.000 Mitglieder.

In mehreren Facebook-Gruppen trollten sich konkurrierende sunnitische und schiitische Milizen gegenseitig, indem sie pornografische Bilder und andere obszöne Fotos in rivalisierende Gruppen posteten, in der Hoffnung, dass Facebook diese Gemeinschaften entfernen würde.

In anderen teilten Unterstützer des Islamischen Staates offen Links zu Websites mit Unmengen terroristischer Online-Propaganda, während talibanfreundliche Facebook-Nutzer regelmäßige Updates darüber veröffentlichten, wie die Gruppe Afghanistan während eines Großteils des Jahres 2021 übernommen hat, so die Analyse von POLITICO.

Während dieser Zeit gab Facebook an, stark in Tools für künstliche Intelligenz investiert zu haben, um extremistische Inhalte und Hassreden in mehr als 50 Sprachen automatisch zu entfernen. Seit Anfang 2021 teilte das Unternehmen POLITICO mit, dass es mehr Pashto- und Dari-Sprecher – die wichtigsten in Afghanistan gesprochenen Sprachen – hinzugefügt habe, lehnte es jedoch ab, die Anzahl der Personalaufstockungen bereitzustellen.

Doch die zahlreichen Inhalte des Islamischen Staates und der Taliban, die sich noch immer auf der Plattform befinden, zeigen, dass es diesen Bemühungen nicht gelungen ist, Extremisten daran zu hindern, die Plattform auszunutzen. Interne Dokumente, die vor drei Monaten von Frances Haugen, einer Facebook-Whistleblowerin, veröffentlicht wurden, zeigten, dass die Forscher des Unternehmens davor gewarnt hatten, dass Facebook seine Nutzer in einigen der instabilsten Länder der Welt, darunter Syrien, Afghanistan und Irak, routinemäßig nicht schützte.

„Für mich ist es einfach zu einfach, dieses Zeug online zu finden“, sagte Moustafa Ayad, Exekutivdirektor für Afrika, den Nahen Osten und Asien beim Institute for Strategic Dialogue, einem Think Tank, der Online-Extremismus verfolgt, der die Facebook-Extremistengruppen entdeckte und teilte seine Erkenntnisse mit POLITICO. „Was im wirklichen Leben passiert, passiert in der Facebook-Welt“

Viele Länder im Nahen Osten und in Zentralasien werden von sektiererischer Gewalt zerrissen, und islamische Extremisten haben Facebook als Waffe genutzt, um ihre hasserfüllte Agenda zu fördern und Unterstützer für ihre Sache zu gewinnen. Hunderte dieser Gruppen, deren Größe von einigen Hundert Mitgliedern bis hin zu Zehntausenden von Benutzern variiert, sind in den letzten 18 Monaten auf der Plattform entstanden – auf Arabisch, Pashto und Dari.

Als POLITICO die offenen Facebook-Gruppen, die islamistische extremistische Inhalte fördern, an Meta, die Muttergesellschaft von Facebook, markierte, entfernte es sie, darunter eine Pro-Taliban-Gruppe, die im Frühjahr gegründet wurde und auf 107.000 Mitglieder angewachsen war.

Doch innerhalb von Stunden nach seiner Entfernung war eine separate Gruppe, die den Islamischen Staat unterstützte, auf Facebook wieder aufgetaucht und begann erneut, Beiträge und Bilder zugunsten der verbotenen extremistischen Organisation zu veröffentlichen, die direkt gegen die Nutzungsbedingungen von Facebook verstieß. Diese Gruppen wurden schließlich entfernt, nachdem sie ebenfalls markiert worden waren.

„Wir sind uns bewusst, dass unsere Durchsetzung nicht immer perfekt ist, weshalb wir eine Reihe von Optionen prüfen, um diese Herausforderungen anzugehen“, sagte Ben Walters, ein Meta-Sprecher, in einer Erklärung.

Ein nicht gelöstes Problem

Ein Großteil der islamisch-extremistischen Inhalte, die auf diese kriegszerrütteten Länder abzielen, wurde in lokalen Sprachen verfasst – ein Problem, das Forscher auch in internen Dokumenten markierten, die von Haugen veröffentlicht wurden, der sie als Offenlegung an die Securities and Exchange Commission übermittelte und dem US-Kongress zur Verfügung stellte. . POLITICO und ein Konsortium von Nachrichtenagenturen überprüften die Dokumente.

Ende 2020 entdeckten Facebook-Ingenieure beispielsweise, dass nur 6 Prozent der arabischsprachigen Hassreden auf Instagram, dem Foto-Sharing-Dienst von Meta, markiert wurden, bevor sie online veröffentlicht wurden. Das im Vergleich zu einer Deaktivierungsrate von 40 Prozent für ähnliches Material auf Facebook.

In Afghanistan, wo sich jeden Monat etwa fünf Millionen Menschen auf der Plattform einloggen, hatte das Unternehmen laut einem separaten internen Dokument, das am 17. Dezember 2020 veröffentlicht wurde, nur wenige Sprecher der Landessprache, um Inhalte zu überwachen. Aufgrund dieses Mangels an lokalem Personal wurden weniger als 1 Prozent der Hassreden wurde entfernt.

„Es gibt eine große Lücke im Meldeprozess von Hassreden in den lokalen Sprachen, sowohl in Bezug auf die Genauigkeit als auch auf die Vollständigkeit der Übersetzung des gesamten Meldeprozesses“, schlossen die Facebook-Forscher.

Doch ein Jahr nach diesen Erkenntnissen gelangen routinemäßig talibanfreundliche Inhalte durch das Netz.

In der inzwischen gelöschten offenen Facebook-Gruppe mit etwa 107.000 Mitgliedern, die von POLITICO überprüft wurde, wurden während eines Großteils des Jahres 2021 zahlreiche grafische Videos und Fotos mit Nachrichten in lokalen Sprachen hochgeladen, um die islamische Gruppe zu unterstützen, die immer noch offiziell von der Plattform wegen ihrer internationalen Bezeichnung als terroristische Vereinigung.

Dazu gehörten Aufnahmen von Taliban-Kämpfern, die Truppen angriffen, die der jetzt gestürzten afghanischen Regierung treu ergeben waren, während andere Taliban-Nutzer solche Gewalt in Kommentaren lobten, die sich der Mäßigung entzogen.

„Hier gibt es eindeutig ein Problem“, sagte Adam Hadley, Direktor von Tech Against Terrorism, einer gemeinnützigen Organisation, die mit kleineren sozialen Netzwerken, aber nicht mit Facebook, zusammenarbeitet, um die Zunahme extremistischer Online-Inhalte zu bekämpfen.

Er fügte hinzu, er sei nicht überrascht, dass das soziale Netzwerk Schwierigkeiten habe, extremistische Inhalte zu erkennen, da seine automatisierten Inhaltsfilter nicht ausgereift genug seien, um Hassreden in Arabisch, Paschtu oder Dari zu erkennen.

„Wenn es um nicht-englischsprachige Inhalte geht, werden nicht genügend Ressourcen für maschinensprachliche Algorithmen verwendet, um dies zu bekämpfen“, fügte er hinzu.

Kampf zwischen Cyber-Armeen

Ein erheblicher Teil der jüngsten Aktivitäten der Facebook-Gruppe konzentrierte sich auf digitale Kämpfe zwischen rivalisierenden sunnitischen und schiitischen Milizen über Facebook im Irak – einem Land, das weiterhin unter weit verbreiteter sektiererischer Gewalt leidet, die in das größte soziale Netzwerk der Welt abgewandert ist.

Dies geschah, nachdem separate interne Facebook-Dokumente von Ende 2020 Bedenken geäußert hatten, dass sogenannte „Cyber-Armeen“ zwischen rivalisierenden sunnitischen und schiitischen Gruppen die Plattform im Irak nutzten, um sich online gegenseitig anzugreifen.

In mehreren Facebook-Gruppen fanden diese Kämpfe in den letzten 90 Tagen fast in Echtzeit statt, als die vom Iran und vom Islamischen Staat unterstützten Extremisten die Online-Communitys der anderen mit sexuellen Bildern und anderen grafischen Inhalten übersäten, so Ayad. Forscher des Instituts für Strategischen Dialog.

In einer, die Militante von beiden Seiten des Kampfes umfasste, stachelten schiitische irakische Militante die Rivalen des Islamischen Staates mit Fotos von spärlich bekleideten Frauen und sektiererischen Beleidigungen an, während in derselben Facebook-Gruppe Anhänger des Islamischen Staates ähnlich abfällige Memes posteten, die lokale Rivalen angriffen.

“Es ist im Wesentlichen Trolling”, sagte Ayad. „Es nervt die Gruppenmitglieder und bringt auch jemanden in Maßen zur Kenntnis, aber die Gruppen werden oft nicht abgebaut. Das passiert, wenn es an Content-Moderation mangelt.“

POLITIK hat seine Technologieabdeckung in Großbritannien ausgeweitet und führt derzeit eine Pilotausgabe für eine britische Ausgabe unseres Morning Tech-Newsletters durch. Um es auszuprobieren, mailen Sie [email protected] Erwähnung von UK Tech.

.
source site

Leave a Reply