Facebook hat es versäumt, Morddrohungen gegen Wahlhelfer vor den Zwischenwahlen in den USA aufzudecken

„Wir werden euch alle töten“: Facebook hat es versäumt, Morddrohungen gegen Wahlhelfer vor den Zwischenwahlen aufzudecken – während YouTube und TikTok die Konten gesperrt haben, wie die Untersuchung zeigt

  • Eine neue Untersuchung zeigt, dass 75 % der Anzeigen mit Morddrohungen an US-Wahlhelfer, die vor den Midterms eingereicht wurden, von Facebook genehmigt wurden
  • Forscher von Global Witness und NYU verwendeten Sprache von echten Morddrohungen und stellten fest, dass TikTok und YouTube sie gesperrt haben, Facebook jedoch nicht
  • „Es ist unglaublich alarmierend, dass Facebook Anzeigen genehmigt hat, in denen Wahlhelfer mit Gewalt, Lynchjustiz und Mord bedroht werden“, sagte Rosie Sharpe von Global Witness
  • Ein Facebook-Sprecher sagte, das Unternehmen sei weiterhin bestrebt, seine Erkennungssysteme zu verbessern

Facebook war nicht in der Lage, die überwiegende Mehrheit der Anzeigen zu erkennen, die ausdrücklich zur Gewalt gegen oder Tötung von US-Wahlhelfern vor den Midterms aufriefen, wie eine neue Untersuchung zeigt.

Die Untersuchung testete Facebook, YouTube und TikTok auf ihre Fähigkeit, Anzeigen zu kennzeichnen, die zehn reale Beispiele für Morddrohungen gegen Wahlhelfer enthielten – einschließlich Aussagen, dass Menschen getötet, gehängt oder hingerichtet und Kinder belästigt würden.

TikTok und YouTube sperrten die Konten, die für die Übermittlung der Anzeigen eingerichtet wurden. Aber das zu Meta gehörende Facebook genehmigte neun von zehn englischsprachigen Morddrohungen zur Veröffentlichung und sechs von zehn spanischsprachigen Morddrohungen – 75 % der gesamten Anzeigen, die die Gruppe zur Veröffentlichung eingereicht hat.

„Es ist unglaublich alarmierend, dass Facebook Anzeigen genehmigt hat, in denen Wahlhelfer mit Gewalt, Lynchmord und Mord bedroht werden – inmitten wachsender realer Bedrohungen gegen diese Arbeiter“, sagte Rosie Sharpe, Ermittlerin bei Global Witness, die mit der Cybersecurity der Tandon School of Engineering der New York University zusammenarbeitet Democracy (C4D)-Team über die Forschung.

Facebook war nicht in der Lage, die überwiegende Mehrheit der Anzeigen zu erkennen, die ausdrücklich zur Gewalt gegen oder Tötung von US-Wahlhelfern vor den Midterms aufriefen, wie eine neue Untersuchung zeigt

Damon McCoy, Co-Direktor von C4D, sagte in einer Erklärung: „Das Versäumnis von Facebook, Anzeigen zu blockieren, die Gewalt gegen Wahlhelfer befürworten, gefährdet die Sicherheit dieser Arbeiter.  Es ist beunruhigend, dass Facebook Werbetreibenden, die bei der Androhung von Gewalt erwischt wurden, erlaubt, weiterhin Anzeigen zu kaufen

Damon McCoy, Co-Direktor von C4D, sagte in einer Erklärung: „Das Versäumnis von Facebook, Anzeigen zu blockieren, die Gewalt gegen Wahlhelfer befürworten, gefährdet die Sicherheit dieser Arbeiter. Es ist beunruhigend, dass Facebook Werbetreibenden, die bei der Androhung von Gewalt erwischt wurden, erlaubt, weiterhin Anzeigen zu kaufen

Die Anzeigen wurden am Tag vor oder am Tag der Zwischenwahlen eingereicht.

Laut den Forschern waren alle Morddrohungen „erschreckend klar in ihrer Sprache“ und verstießen alle gegen die Werberichtlinien von Meta, TikTok und Google.

Die Forscher veröffentlichten die Anzeigen nicht wirklich in Mark Zuckerbergs sozialem Netzwerk – sie wurden kurz nach der Zustimmung von Facebook entfernt – weil sie keine gewalttätigen Inhalte verbreiten wollten.

Damon McCoy, Co-Direktor von C4D, sagte in einer Erklärung: „Das Versäumnis von Facebook, Anzeigen zu blockieren, die Gewalt gegen Wahlhelfer befürworten, gefährdet die Sicherheit dieser Arbeiter. Es ist beunruhigend, dass Facebook Werbetreibenden, die bei der Androhung von Gewalt erwischt wurden, erlaubt, weiterhin Anzeigen zu kaufen. Facebook muss seine Erkennungsmethoden verbessern und Werbetreibende verbieten, die Gewalt fördern.’

Die Forscher hatten in ihrem Bericht einige Empfehlungen für das Unternehmen von Mark Zuckerberg:

Erhöhen Sie dringend die Fähigkeiten zur Moderation von Inhalten und die Integritätssysteme, die eingesetzt werden, um das Risiko im Zusammenhang mit Wahlen zu mindern.

Bewerten, mindern und veröffentlichen Sie routinemäßig die Risiken, die ihre Dienste auf die Menschenrechte der Menschen und andere gesellschaftliche Schäden in allen Ländern, in denen sie tätig sind, auswirken.

Vollständige Details aller Anzeigen (einschließlich beabsichtigter Zielgruppe, tatsächlicher Zielgruppe, Werbeausgaben und Anzeigenkäufer) in seine Anzeigenbibliothek aufnehmen.

Veröffentlichen Sie ihre Risikobewertung vor den Wahlen für die Vereinigten Staaten. Lassen Sie verifizierte unabhängige Audits durch Dritte zu, damit diese für das, was sie zu tun sagen, zur Rechenschaft gezogen werden können.

„Diese Art von Aktivität bedroht die Sicherheit unserer Wahlen. Doch was Facebook nach eigenen Angaben tut, um seine Plattform zu schützen, hat kaum Ähnlichkeit mit dem, was es tatsächlich tut. Die Unfähigkeit von Facebook, Hassreden und Wahldesinformationen aufzudecken – trotz seiner öffentlichen Zusagen – ist ein globales Problem, wie Global Witness in diesem Jahr bei Untersuchungen in Brasilien, Äthiopien, Kenia, Myanmar und Norwegen gezeigt hat“, sagte Sharpe.

Befürworter kritisieren Facebook seit langem, dass es nicht genug tue, um die Verbreitung von Fehlinformationen und Hassreden im Netzwerk zu verhindern – während Wahlen und auch zu anderen Jahreszeiten.

Als Global Witness Facebook um einen Kommentar bat, sagte ein Sprecher: „Dies ist eine kleine Auswahl von Anzeigen, die nicht repräsentativ für das sind, was die Leute auf unseren Plattformen sehen. Inhalte, die zu Gewalt gegen Wahlhelfer oder andere Personen aufstacheln, haben in unseren Apps nichts zu suchen, und jüngste Berichte haben deutlich gemacht, dass die Fähigkeit von Meta, mit diesen Problemen umzugehen, die anderer Plattformen effektiv übersteigt. Wir sind weiterhin bestrebt, unsere Systeme weiter zu verbessern.’

Laut den Forschern waren alle Morddrohungen gegen Wahlhelfer „erschreckend deutlich in ihrer Sprache“ und sie alle verstoßen gegen die Werberichtlinien von Meta, TikTok und Google

Laut den Forschern waren alle Morddrohungen gegen Wahlhelfer „erschreckend deutlich in ihrer Sprache“ und sie alle verstoßen gegen die Werberichtlinien von Meta, TikTok und Google

„Inhalte, die zu Gewalt gegen Wahlhelfer oder andere Personen aufstacheln, haben in unseren Apps keinen Platz, und die jüngsten Berichte haben deutlich gemacht, dass die Fähigkeit von Meta, mit diesen Problemen umzugehen, die anderer Plattformen effektiv übersteigt.  Wir sind weiterhin bestrebt, unsere Systeme weiter zu verbessern“, sagte Facebook in einer Erklärung

„Inhalte, die zu Gewalt gegen Wahlhelfer oder andere Personen aufstacheln, haben in unseren Apps keinen Platz, und die jüngsten Berichte haben deutlich gemacht, dass die Fähigkeit von Meta, mit diesen Problemen umzugehen, die anderer Plattformen effektiv übersteigt. Wir sind weiterhin bestrebt, unsere Systeme weiter zu verbessern“, sagte Facebook in einer Erklärung

source site

Leave a Reply