Metas vorgeschlagene Reformen sind bedeutsam

Etwas mehr als 14 Monate später Das Wallstreet Journal zuerst die „Facebook-Dateien“ veröffentlichte – die Berichtsserie, die das Innenleben der Content-Moderation-Praktiken der Website aufdeckte –, hat das Meta Oversight Board endlich seine Meinung zu dem umstrittenen und undurchsichtigen Cross-Check-Programm veröffentlicht, das bestimmte Benutzer bevorzugt behandelte der Website, selbst wenn sie die Community-Standards der Website offen missachten.

Monatelang befürchteten Experten für Online-Sprache, dass die Entscheidung des Vorstands zu kurz greifen würde, indem sie die allzu vereinfachte Lösung empfehlen, das Programm vollständig zu beenden, oder unspezifische Reformmethoden vorschlagen. Aber die Meinung, die darlegt, laut Vorstandmehr als zwei Dutzend konkreter Schritte, für welche Arten von Unternehmen sich für einen solchen Schutz qualifizieren können – und wer sie auswählt – übertrafen die Erwartungen und boten eine ernsthafte Anleitung für eine der schwierigsten Fragen der Online-Sprache.

Das Problem, das Facebook zu lösen versucht, war für das Internet seit seinen Anfängen von zentraler Bedeutung. Schon sehr früh konnte jeder mit einer Tastatur und einem Modem seine Ideen plötzlich an Dutzende oder Tausende von Menschen verbreiten, ohne dass ein Pitch von einem genehmigt werden musste New York Times Meinungsredakteur oder die Vermietung eines Rathauses.

Aber eine der unbequemen Wahrheiten über soziale Medien und Plattformen für nutzergenerierte Inhalte ist, dass sie, obwohl sie den Zugang des Einzelnen zum Publizieren demokratisiert haben, auch bestehende Machtstrukturen neu geschaffen und sie aus der Offline-Welt in die Online-Welt importiert haben. Dies gilt insbesondere für die großen Social-Media-Plattformen – einschließlich Facebook, Twitter, YouTube, Instagram und TikTok – wo jemand, der bereits berühmt ist, leicht eine riesige Fangemeinde erreichen und mit seiner Rede viel mehr Menschen erreichen kann als der durchschnittliche Blogger oder YouTuber könnte. Wenn es nur darum geht, dass Prominente ihre Marken anpreisen oder unzensierte Videos ihrer Make-up-Routinen posten, schadet das kaum. Aber wie die Welt kürzlich bei Prominenten wie Alex Jones oder Ye gesehen hat, können schlechte Schauspieler mit großem Publikum diese Plattformen nutzen, um grausame, hasserfüllte Botschaften an Millionen zu verbreiten und mit ihrer Online-Rede großen, echten Schaden anzurichten.

Facebook hat sich schon früh mit dieser Realität auseinandergesetzt – bereits 2013 – und im Laufe der Zeit ein System der Inhaltsmoderation und Sprachsteuerung entwickelt, das seinen bekanntesten Benutzern und Persönlichkeiten des öffentlichen Lebens spezielle Systeme zur Überprüfung und Behandlung gab. Dies war das Cross-Check-Programm: Facebooks Off-Book-Review-Prozess, der bestimmte Benutzer für einen zweiten Blick auf Entscheidungen priorisierte, die aus dem allgemeinen Content-Moderation-Prozess hervorgingen, der etwa 100 Millionen Content-Moderation-Assessments pro Tag durchführte.

Das Cross-Check-System war in der Branche bekannt, aber bis zu den „Facebook Files“ für die breite Öffentlichkeit unsichtbar. In dieser Berichterstattung wurde zum ersten Mal detailliert beschrieben, wie das System funktionierte und wie Pay-to-Play – oder vielleicht genauer gesagt „Pay-to-Stay“ – es wirklich war. Während ein Oben-ohne-Foto, das von einer Benutzerin in Brasilien zur Aufklärung über Brustkrebs gepostet wurde, dazu führte, dass diese Benutzerin fast sofort von Instagram ausgeschlossen wurde, war ihr Appell wochenlang schwach, nicht einvernehmliche Pornografie, die von einer prominenten Sportlerin mit rund 100 Millionen Instagram-Followern von einer Frau gepostet wurde, die hatte bezichtigte ihn der Vergewaltigung, blieb länger als einen Tag auf, genug Zeit für etwa 56 Millionen Menschen, um es zu sehen. (Der fragliche Athlet, der brasilianische Fußballstar Neymar, hat den Vergewaltigungsvorwurf bestritten.)

Neymar existierte auf einer „weißen Liste“ innerhalb des von Facebook verwendeten Cross-Check-Systems, das es seinen Posts ermöglichte, auf dem Laufenden zu bleiben. Besorgnis über eine Sonderbehandlung verschlimmerte Meta im Jahr 2021 – nachdem die „Facebook-Dateien“ veröffentlicht worden waren und Facebook zugegeben hatte, dass die Kritik am Cross-Check-Programm fair war – dass es einen wirtschaftlichen Deal mit Neymar abschließen würde, „um Spiele zu streamen exklusiv auf Facebook Gaming und teilt Videoinhalte mit seinen mehr als 166 Millionen Instagram-Fans.“

Nach dem Exposé von Neymar und der allgemeinen Berichterstattung über das Cross-Check-Programm leitete das Meta Oversight Board eine Untersuchung ein. Das Gremium, das oft als Oberster Gerichtshof von Facebook bezeichnet wird, wurde 2020 eingerichtet, um damit zu beginnen, genau zu überprüfen, wie – und wie gut – die Sprachmegaplattform die Grundprinzipien der Menschenrechte rund um die freie Meinungsäußerung sowohl inhaltlich als auch verfahrenstechnisch einhält. In den zwei Jahren seit seiner Gründung hat der Vorstand eine kleine, aber wichtige Reihe von Fällen übernommen, insbesondere die Entscheidung von Facebook, Präsident Donald Trump wegen seiner Posts während des Aufstands vom 6. Januar von der Plattform zu verbannen, eine Entscheidung, die er bestätigte, aber kritisierte .

In den 15 Monaten, seit der Vorstand mit seiner Überprüfung begonnen hat, hat die Gruppe langsam und akribisch Informationstreffen mit Meta abgehalten, ehemalige Mitarbeiter interviewt, die an dem Programm gearbeitet haben, und Treffen mit externen Gruppen abgehalten, um nach ihren größten Bedenken in Bezug auf die Gegenprüfung zu fragen . (Ich habe an einigen dieser Treffen als Forscher teilgenommen, der sich mit Online-Speech-Governance befasst, nicht als Teilnehmer.)

Während der Vorstand beriet, äußerten viele, die über das Programm Bescheid wussten, ihre Skepsis, dass es in der Lage sein würde, echte Empfehlungen zur Bewältigung der Situation zu entwickeln. Obwohl das Cross-Check-Programm tiefe Mängel aufwies, wurde es im Wesentlichen als notwendiger Bestandteil einer effektiven Inhaltsmoderation angesehen. „Wenn eines der Ziele des Ausschusses darin besteht, die Meinungsfreiheit zu schützen, besteht eine reale Chance, dass das Abschaffen des Programms dazu führen könnte, dass fälschlicherweise mehr Reden herunterkommen, was die Diskussion und Debatte über wichtige Themen stark beeinträchtigen könnte“, Katie Harbath, die ehemalige Direktorin der öffentlichen Ordnung bei globalen Wahlen bei Facebook, sagte mir.

Der Vorstand empfahl jedoch nicht, das Cross-Check-Modell aufzugeben. Vielmehr gibt die Entscheidung, die Anfang dieser Woche bekannt gegeben wurde, vielleicht einen der vollständigsten und umfassendsten Überblicke (sie erstreckt sich über 57 Seiten) darüber, wie die Blackbox der Appelle zur Moderation von Inhalten für Elite-Benutzer der Website funktioniert – und diskutiert dann, wie es geht Verbessere es. „Ich habe ein paar Spitzfindigkeiten, aber insgesamt ist das unglaublich umfassend“, sagte Harbath zu mir.

Im Mittelpunkt der Empfehlungen des Vorstands stehen zwei Säulen, die viele ehemalige und aktuelle Mitarbeiter bei Facebook seit Jahren vorantreiben: Transparenz und Gewaltenteilung. Aber im Gegensatz zu einigen früheren Entscheidungen, die auf allgemeine und etwas subjektive Vorstellungen von Verhältnismäßigkeit oder Gerechtigkeit hingewiesen haben, sind die Empfehlungen des Boards sehr spezifisch und gehen so weit, zu beleuchten, welche Arten von Persönlichkeiten des öffentlichen Lebens Meta in die Cross- Programm prüfen.

Ganz oben auf der Liste der zu schützenden Nutzer stehen Journalisten, Beamte und Amtskandidaten. Dem Vorstand ist aber klar, dass die Ära der Bevorzugung von Prominenten und Politikern, die aus finanziellen Gründen für Meta wertvoll sind, enden muss. Stattdessen empfiehlt der Vorstand, dass alle Beamten und Kandidaten, die in diese Gruppe geschützter Einrichtungen aufgenommen werden, von einem Team ausgewählt werden sollten, das „nicht den Teams für öffentliche Ordnung oder Regierungsbeziehungen“ bei Facebook unterstellt ist. Diese Trennung der Redeaufsicht von Facebook von seinen politischen Interessen ist eine Art Trennung von Kirche und Staat, die droht, das zu beenden, was viele im Unternehmen den „Joel-Kaplan-Effekt“ nennen, nach dem notorisch politisch mächtigen Facebook-Berater, der die Lobbyarbeit des Unternehmens überwacht in Washington, DC „Die Listenerstellung und insbesondere dieses Engagement sollten von spezialisierten Teams durchgeführt werden, die unabhängig von Teams sind, deren Mandate Interessenkonflikte aufwerfen könnten, wie etwa die Teams für öffentliche Politik von Meta“, heißt es in der Vorstandsentscheidung. „Um sicherzustellen, dass die Kriterien erfüllt werden, sollten spezialisierte Mitarbeiter mit Unterstützung lokaler Beiträge die objektive Anwendung der Einschlusskriterien sicherstellen.“

Eine andere Möglichkeit, die Empfehlungen des Gremiums zu sehen, ist die Aufforderung, Normen zu etablieren, wie sie im Journalismus seit langem existieren, und eine bildliche (und manchmal wörtliche) Mauer zwischen der geschäftlichen und der inhaltlichen Seite einer Redaktion zu schaffen. Obwohl die Entscheidung der Plattform das Ermessen lässt, eine zweite Gruppe von „Nutzern mit kommerzieller Bedeutung und Geschäftspartnern“ beizubehalten, besteht sie darauf, dass ein solches System niemals dazu führen sollte, dass die Durchsetzung von Inhaltsregeln auf der Website für diese Art von Inhalten ausgesetzt oder verzögert wird Benutzer.

Das Gremium gibt viele andere Empfehlungen ab – das Verfolgen von Kernkennzahlen und die Erhöhung der Transparenz darüber, wer auf der Gegenprüfliste steht und wann sie verwendet wird –, aber noch mehr als die hochkarätige Trump-Entscheidung zeigt diese jüngste Stellungnahme des Aufsichtsgremiums ihr Potenzial um echte Reformen und Rechenschaftspflicht auf die Plattform zu bringen. In einer Zeit, in der Sprachplattformen sich gesetzlos verhalten, könnte dies nicht begrüßenswerter sein.


source site

Leave a Reply