Whistleblower beschuldigt Facebook, zu den Riots vom 6. Januar beigetragen zu haben, heißt es in Memo

„Wir werden uns weiterhin einer Prüfung stellen – einiges davon fair und einiges unfair“, sagte er in dem Memo. “Aber wir sollten auch weiterhin den Kopf hoch halten.”

Hier ist das vollständige Memo von Herrn Clegg:

UNSERE POSITION ZU POLARISATION UND WAHLEN

Sie werden die Artikelserie über uns, die in den letzten Tagen im Wall Street Journal veröffentlicht wurde, und das damit verbundene öffentliche Interesse gesehen haben. An diesem Sonntagabend wird der Ex-Mitarbeiter, der internes Firmenmaterial an das Journal weitergegeben hat, in einem Segment bei 60 Minutes auf CBS erscheinen. Wir verstehen, dass der Artikel wahrscheinlich behauptet, dass wir zur Polarisierung in den Vereinigten Staaten beitragen, und vermuten, dass die außergewöhnlichen Schritte, die wir für die Wahlen 2020 unternommen haben, zu früh gelockert wurden und zu den schrecklichen Ereignissen vom 6. Januar im Kapitol beigetragen haben.

Ich weiß, dass einige von Ihnen – insbesondere diejenigen von Ihnen in den USA – Fragen von Freunden und Familie zu diesen Dingen bekommen werden, also wollte ich mir einen Moment Zeit nehmen, um das Wochenende zu beginnen, um einen hoffentlich nützlichen Kontext zu unserer arbeiten in diesen entscheidenden Bereichen.

Facebook und Polarisierung

Die Menschen sind verständlicherweise besorgt über die Spaltungen in der Gesellschaft und suchen nach Antworten und Lösungen für die Probleme. Soziale Medien haben in den letzten Jahren einen großen Einfluss auf die Gesellschaft gehabt, und Facebook ist oft ein Ort, an dem sich ein Großteil dieser Debatte abspielt. Daher ist es selbstverständlich, dass die Leute fragen, ob es Teil des Problems ist. Aber die Idee, dass Facebook der Hauptgrund für die Polarisierung ist, wird nicht durch die Fakten gestützt – wie Chris und Pratiti in ihrer Anmerkung zu diesem Thema Anfang des Jahres dargelegt haben.

Die zunehmende Polarisierung war in den letzten Jahren Gegenstand ernsthafter wissenschaftlicher Forschung. In Wahrheit gibt es nicht viel Konsens. Aber die Beweise, die es gibt, stützen einfach nicht die Idee, dass Facebook oder soziale Medien im Allgemeinen die Hauptursache für die Polarisierung sind.

Die zunehmende politische Polarisierung in den USA liegt mehrere Jahrzehnte vor den sozialen Medien. Wenn es wahr wäre, dass Facebook der Hauptgrund für die Polarisierung ist, würden wir erwarten, dass sie überall dort zunimmt, wo Facebook beliebt ist. Es ist nicht. Tatsächlich ist die Polarisierung in einer Reihe von Ländern mit hoher Social-Media-Nutzung zurückgegangen, während sie in den USA gleichzeitig zugenommen hat.

Konkret erwarten wir, dass die Berichterstattung darauf hindeutet, dass eine Änderung des News Feed-Ranking-Algorithmus von Facebook dafür verantwortlich war, polarisierende Inhalte auf der Plattform zu erhöhen. Im Januar 2018 haben wir Ranking-Änderungen vorgenommen, um sinnvolle soziale Interaktionen (MSI) zu fördern – damit Sie mehr Inhalte von Freunden, Familie und Gruppen, denen Sie angehören, in Ihrem News Feed sehen. Diese Änderung wurde stark durch interne und externe Untersuchungen vorangetrieben, die gezeigt haben, dass eine sinnvolle Interaktion mit Freunden und Familie auf unserer Plattform für das Wohlbefinden der Menschen besser ist, und wir haben sie im Laufe der Zeit wie bei allen Ranking-Kennzahlen weiter verfeinert und verbessert. Natürlich hat jeder einen abtrünnigen Onkel oder einen Klassenkameraden der alten Schule, der starke oder extreme Ansichten vertritt, mit denen wir nicht einverstanden sind – das ist das Leben – und die Veränderung hat dazu geführt, dass Sie auch eher auf ihre Beiträge stoßen. Trotzdem haben wir branchenführende Tools entwickelt, um hasserfüllte Inhalte zu entfernen und die Verbreitung problematischer Inhalte zu reduzieren. Infolgedessen ist die Prävalenz von Hassreden auf unserer Plattform jetzt auf etwa 0,05 % gesunken.

Aber die einfache Tatsache bleibt, dass Änderungen an algorithmischen Rankingsystemen auf einer Social-Media-Plattform die breitere gesellschaftliche Polarisierung nicht erklären können. Tatsächlich sind polarisierende Inhalte und Fehlinformationen auch auf Plattformen vorhanden, die keinerlei algorithmisches Ranking haben, einschließlich privater Messaging-Apps wie iMessage und WhatsApp.

Wahlen und Demokratie

Es gibt vielleicht kein anderes Thema, für das wir uns als Unternehmen lauter ausgesprochen haben, als bei unserer Arbeit, die Art und Weise, wie wir Wahlen angehen, dramatisch zu verändern. Ab 2017 begannen wir mit dem Aufbau neuer Abwehrmaßnahmen, brachten neues Fachwissen ein und stärkten unsere Richtlinien zur Verhinderung von Störungen. Heute beschäftigen wir mehr als 40.000 Mitarbeiter im gesamten Unternehmen, die an Sicherheit und Schutz arbeiten.

Seit 2017 haben wir mehr als 150 verdeckte Einflussnahmen unterbrochen und beseitigt, auch im Vorfeld wichtiger demokratischer Wahlen. Allein im Jahr 2020 haben wir mehr als 5 Milliarden gefälschte Konten entfernt – und fast alle identifiziert, bevor sie uns jemand gemeldet hat. Und von März bis zum Wahltag haben wir in den USA mehr als 265.000 Facebook- und Instagram-Inhalte entfernt, weil sie gegen unsere Richtlinien zur Einmischung von Wählern verstoßen haben.

Angesichts der außergewöhnlichen Umstände einer umstrittenen Wahl in einer Pandemie haben wir vor und nach dem Wahltag sogenannte „Glasbruch“-Maßnahmen umgesetzt – und öffentlich darüber gesprochen –, um auf spezifische und ungewöhnliche Signale zu reagieren, die wir auf unserer Plattform sahen, und um dies beizubehalten potenziell gegen Inhalte verstoßende Inhalte werden nicht verbreitet, bevor unsere Inhaltsprüfer sie gemäß unseren Richtlinien beurteilen können.

Diese Maßnahmen waren nicht ohne Kompromisse – sie sind stumpfe Instrumente, die auf bestimmte Krisenszenarien ausgelegt sind. Es ist, als würden die Straßen und Autobahnen einer ganzen Stadt als Reaktion auf eine vorübergehende Bedrohung, die irgendwo in einer bestimmten Nachbarschaft lauert, geschlossen werden. Wir wissen, dass wir bei der Umsetzung erhebliche Auswirkungen auf Inhalte hatten, die nicht gegen unsere Regeln verstoßen, um die Sicherheit der Menschen in einer Zeit extremer Unsicherheit zu priorisieren. Zum Beispiel haben wir die Verbreitung von Live-Videos eingeschränkt, die sich nach unseren Vorhersagen auf die Wahlen beziehen könnten. Dies war ein extremer Schritt, der dazu beitrug, dass potenziell verletzende Inhalte nicht viral wurden, aber es wirkte sich auch auf viele ganz normale und vernünftige Inhalte aus, einschließlich einiger, die nichts mit der Wahl zu tun hatten. Unter normalen Umständen würden wir diese Art von groben, allumfassenden Maßnahmen nicht ergreifen, aber das waren keine normalen Umstände.

Wir haben diese Notfallmaßnahmen – basierend auf einer sorgfältigen datengestützten Analyse – erst zurückgenommen, als wir eine Rückkehr zu normaleren Bedingungen festgestellt haben. Einige von ihnen haben wir bis Februar dieses Jahres für einen längeren Zeitraum belassen und andere, wie z.

Kampf gegen Hassgruppen und andere gefährliche Organisationen

Ich möchte es absolut klarstellen: Wir arbeiten daran, Hassreden einzuschränken und nicht auszuweiten, und wir haben klare Richtlinien, die Inhalte verbieten, die zu Gewalt aufstacheln. Wir profitieren nicht von Polarisierung, im Gegenteil. Wir gestatten nicht, dass sich gefährliche Organisationen, einschließlich militarisierter sozialer Bewegungen oder gewaltverursachender Verschwörungsnetzwerke, auf unseren Plattformen organisieren. Und wir entfernen Inhalte, die Hassgruppen, Terrororganisationen und kriminelle Gruppen loben oder unterstützen.

Wir sind aggressiver als jedes andere Internetunternehmen bei der Bekämpfung schädlicher Inhalte gewesen, einschließlich Inhalten, die darauf abzielten, die Wahl zu delegitimieren. Aber unsere Arbeit, um gegen diese Hassgruppen vorzugehen, hat Jahre gedauert. Wir haben Zehntausende von QAnon-Seiten, -Gruppen und -Konten aus unseren Apps entfernt, die ursprüngliche #StopTheSteal-Gruppe entfernt und im Vorfeld der Einweihung Verweise auf Stop the Steal entfernt. Allein im Jahr 2020 haben wir mehr als 30 Millionen Inhalte entfernt, die gegen unsere Richtlinien zum Terrorismus verstoßen, und mehr als 19 Millionen Inhalte, die gegen unsere Richtlinien zu organisiertem Hass verstoßen Entfernen Sie Lob, Unterstützung und Darstellung von ihnen. Zwischen August letzten Jahres und 12. Januar dieses Jahres haben wir fast 900 Milizorganisationen im Rahmen unserer Richtlinie zu gefährlichen Organisationen und Einzelpersonen identifiziert und Tausende von Seiten, Gruppen, Veranstaltungen, Facebook-Profilen und Instagram-Konten entfernt, die mit diesen Gruppen verbunden waren.

Diese Arbeit wird nie abgeschlossen sein. Es wird immer neue Bedrohungen und neue Probleme geben, in den USA und auf der ganzen Welt. Deshalb bleiben wir wachsam und wachsam – und werden es immer müssen.

Deshalb ist auch die manchmal gemachte Andeutung, dass es ohne die sozialen Medien nicht zu dem gewaltsamen Aufstand am 6. Januar gekommen wäre, so irreführend. Um es klar zu sagen, die Verantwortung für diese Ereignisse liegt direkt bei den Tätern der Gewalt und denen in der Politik und anderswo, die sie aktiv gefördert haben. Reife Demokratien, in denen die Nutzung sozialer Medien weit verbreitet ist, halten ständig Wahlen ab – zum Beispiel die Wahlen in Deutschland letzte Woche – ohne die entstellende Präsenz von Gewalt. Wir teilen aktiv mit Strafverfolgungsbehörden Material, das wir in unseren Diensten im Zusammenhang mit diesen traumatischen Ereignissen finden können. Aber die komplexen Gründe für die Polarisierung in Amerika – oder speziell den Aufstand – auf eine technologische Erklärung zu reduzieren, ist erschreckend einfach.

Wir werden uns weiterhin einer Prüfung stellen – teils fair, teils unfair. Uns werden weiterhin schwierige Fragen gestellt. Und viele Menschen werden unseren Motiven weiterhin skeptisch gegenüberstehen. Das ist es, was es mit sich bringt, Teil eines Unternehmens zu sein, das einen bedeutenden Einfluss auf die Welt hat. Wir müssen demütig genug sein, Kritik zu akzeptieren, wenn sie fair ist, und Änderungen vorzunehmen, wo sie gerechtfertigt sind. Wir sind nicht perfekt und wir haben nicht alle Antworten. Deshalb betreiben wir die Art von Forschung, die in erster Linie Gegenstand dieser Geschichten war. Und wir werden weiterhin nach Möglichkeiten suchen, auf das Feedback unserer Nutzer zu reagieren, einschließlich Tests, um sicherzustellen, dass politische Inhalte ihre Newsfeeds nicht übernehmen.

Aber wir sollten auch weiterhin den Kopf hochhalten. Sie und Ihre Teams leisten unglaubliche Arbeit. Unsere Werkzeuge und Produkte haben einen enorm positiven Einfluss auf die Welt und das Leben der Menschen. Und Sie haben allen Grund, stolz auf diese Arbeit zu sein.

source site

Leave a Reply