Es ist an der Zeit, die Lösung des Fehlinformationsproblems in den sozialen Medien aufzugeben

Wenn Sie den sozialen Medien nicht vertrauen, sollten Sie wissen, dass Sie nicht allein sind. Den meisten befragten Menschen auf der ganzen Welt geht es genauso – und das sagen sie sogar schon seit einem Jahrzehnt. Es gibt eindeutig ein Problem mit Fehlinformationen und gefährlichen Äußerungen auf Plattformen wie Facebook und

In den letzten Wochen hat das Gericht Argumente in drei Fällen angehört, in denen es um die Kontrolle politischer Meinungsäußerung und Fehlinformationen im Internet ging. In den ersten beiden Fällen, die letzten Monat verhandelt wurden, behaupten Gesetzgeber in Texas und Florida, dass Plattformen wie Facebook selektiv politische Inhalte entfernen, die ihre Moderatoren als schädlich oder anderweitig gegen ihre Nutzungsbedingungen erachten; Technologieunternehmen haben argumentiert, dass sie das Recht haben, zu kuratieren, was ihre Benutzer sehen. Unterdessen glauben einige politische Entscheidungsträger, dass die Moderation von Inhalten nicht verschwunden ist weit genug, und dass Fehlinformationen immer noch zu leicht über soziale Netzwerke verbreitet werden; Ob (und wie) Regierungsbeamte direkt mit Technologieplattformen über die Entfernung solcher Inhalte kommunizieren können, ist die Frage im dritten Fall, der diese Woche dem Gericht vorgelegt wurde.

Wir sind Harvard-Ökonomen, die sich mit Social Media und Plattformdesign befassen. (Einer von uns, Scott Duke Kominers, ist außerdem Forschungspartner im Kryptobereich von a16z, einem Risikokapitalunternehmen mit Investitionen in soziale Plattformen, und Berater von Quora.) Unsere Forschung bietet eine möglicherweise kontraintuitive Lösung für Meinungsverschiedenheiten über Moderation : Plattformen sollten den Versuch aufgeben, die Verbreitung einfach falscher Informationen zu verhindern, und sich stattdessen darauf konzentrieren, die Verbreitung falscher Informationen zu verhindern kann dazu verwendet werden, Schaden anzurichten. Dies sind verwandte Probleme, aber sie sind nicht dasselbe.

Während die Präsidentschaftswahlen näher rückten, bereiten sich Technologieplattformen auf eine Flut von Fehlinformationen vor. Zivilgesellschaftliche Organisationen sagen, dass Plattformen einen besseren Plan zur Bekämpfung von Wahlfehlinformationen benötigen, von denen einige Wissenschaftler erwarten, dass sie in diesem Jahr neue Höhen erreichen werden. Plattformen geben an, dass sie Pläne haben, ihre Websites sicher zu halten, doch trotz der Ressourcen, die für die Moderation von Inhalten, die Überprüfung von Fakten und dergleichen aufgewendet werden, kann man sich des Gefühls kaum erwehren, dass die Tech-Titanen den Kampf verlieren.

Hier liegt das Problem: Plattformen haben die Macht, Inhalte zu blockieren, zu kennzeichnen oder stumm zu schalten, die sie für falsch halten. Aber etwas zu blockieren oder als falsch zu kennzeichnen, hindert Benutzer nicht unbedingt daran, es zu glauben. Da viele der schädlichsten Lügen von denen geglaubt werden, die dazu neigen, dem „Establishment“ zu misstrauen, kann das Blockieren oder Markieren falscher Behauptungen die Situation sogar noch verschlimmern.

Am 19. Dezember 2020 veröffentlichte der damalige Präsident Donald Trump eine inzwischen berüchtigte Nachricht über Wahlbetrug, in der er seine Leser dazu aufforderte, am 6. Januar in Washington, D.C. „da zu sein“. Wenn Sie diesen Beitrag heute auf Facebook besuchen, werden Sie es tun Sehen Sie sich eine nüchterne Anmerkung der Plattform selbst an, dass „die USA über Gesetze, Verfahren und etablierte Institutionen verfügen, um die Integrität unserer Wahlen zu gewährleisten“. Dieser Haftungsausschluss stammt vom Bipartisan Policy Center. Aber glaubt irgendjemand ernsthaft, dass die Menschen, die am 6. Januar das Kapitol stürmten, und die vielen anderen, die sie angefeuert haben, davon überzeugt sein würden, dass Joe Biden gewonnen hat, nur weil das Bipartisan Policy Center Facebook mitgeteilt hat, dass alles in Ordnung sei?

Unsere Forschung zeigt, dass dieses Problem immanent ist: Wenn die Nutzer einer Plattform nicht den Beweggründen der Plattform und ihrem Prozess vertrauen, kann jede Aktion der Plattform wie ein Beweis für etwas aussehen, das sie nicht ist. Um zu dieser Schlussfolgerung zu gelangen, haben wir ein mathematisches Modell erstellt. In dem Modell versucht ein Benutzer (ein „Sender“), einen Anspruch gegenüber einem anderen Benutzer (einem „Empfänger“) geltend zu machen. Die Behauptung kann wahr oder falsch, schädlich sein oder nicht. Zwischen den beiden Benutzern befindet sich eine Plattform – oder möglicherweise ein in ihrem Namen agierender Algorithmus –, der den Inhalt des Absenders blockieren kann, wenn er möchte.

Wir wollten herausfinden, wann das Blockieren von Inhalten die Ergebnisse verbessern kann, ohne dass das Risiko einer Verschlechterung besteht. Unser Modell ist, wie alle Modelle, eine Abstraktion – und erfasst daher die Komplexität tatsächlicher Interaktionen nur unvollständig. Da wir jedoch alle möglichen Richtlinien berücksichtigen wollten und nicht nur diejenigen, die in der Praxis erprobt wurden, konnte unsere Frage nicht allein durch Daten beantwortet werden. Stattdessen gingen wir mit mathematischer Logik an die Sache heran und betrachteten das Modell als eine Art Windkanal, um die Wirksamkeit verschiedener Maßnahmen zu testen.

Unsere Analyse zeigt: Wenn Benutzer der Plattform vertrauen, wissen beide, was richtig ist Und Tun Sie, was richtig ist (und die Plattform weiß wirklich, was wahr ist und was nicht), dann kann die Plattform Fehlinformationen erfolgreich beseitigen. Die Logik ist einfach: Wenn Benutzer glauben, dass die Plattform wohlwollend und allwissend ist, dann muss etwas, das blockiert oder markiert wird, falsch sein, und wenn es durchgelassen wird, muss es wahr sein.

Das Problem ist jedoch offensichtlich: Viele Nutzer vertrauen Big-Tech-Plattformen nicht, wie die zuvor genannten Umfragen zeigen. Wenn Benutzer einer Plattform nicht vertrauen, können selbst gut gemeinte Versuche, die Dinge zu verbessern, die Situation verschlimmern. Und wenn die Plattformen scheinbar Partei ergreifen, kann das das Feuer, das sie löschen wollen, noch weiter anheizen.

Bedeutet das, dass die Moderation von Inhalten immer kontraproduktiv ist? Weit davon entfernt. Unsere Analyse zeigt auch, dass Moderation sehr effektiv sein kann, wenn sie Informationen blockiert, die für schädliche Zwecke genutzt werden können.

Gehen wir zurück zu Trumps Beitrag vom Dezember 2020 über Wahlbetrug und stellen Sie sich vor, dass die Plattform es Trump einfach viel schwerer gemacht hätte, das Datum (6. Januar) und den Ort (Washington) zu kommunizieren, anstatt die Benutzer auf die nüchternen Schlussfolgerungen des Bipartisan Policy Center aufmerksam zu machen , DC), damit sich Unterstützer versammeln können. Das Blockieren dieser Informationen hätte die Benutzer nicht davon abgehalten zu glauben, dass die Wahl gestohlen wurde – im Gegenteil, es hätte möglicherweise Behauptungen genährt, dass die Eliten des Technologiesektors versuchten, das Ergebnis zu beeinflussen. Dennoch hätte die Erschwerung der Koordinierung, wohin und wann man gehen sollte, möglicherweise dazu beigetragen, die Dynamik des eventuellen Aufstands zu bremsen und so den realen Schaden des Postens zu begrenzen.

Im Gegensatz zur Entfernung von Fehlinformationen an sich kann die Entfernung von Informationen, die Schaden verursachen können, auch dann funktionieren, wenn Benutzer den Motiven der Plattform überhaupt nicht vertrauen. Wenn es die Informationen selbst sind, die den Schaden verursachen, blockiert das Blockieren dieser Informationen auch den Schaden. Eine ähnliche Logik gilt auch für andere Arten schädlicher Inhalte wie Doxxing und Hassreden. Dort ist der Inhalt selbst – nicht die Überzeugungen, die er fördert – die Ursache des Schadens, und Plattformen moderieren diese Art von Inhalten tatsächlich erfolgreich.

Wollen wir, dass Technologieunternehmen entscheiden, was schädlich ist und was nicht? Vielleicht nicht; Die Herausforderungen und Nachteile liegen auf der Hand. Aber Plattformen urteilen bereits routinemäßig über Schaden – ein Beitrag, der zu einer Versammlung an einem bestimmten Ort und zu einer bestimmten Zeit aufruft und das Wort enthält gewalttätig eine Aufforderung zur Gewalt oder die Ankündigung eines Open-Air-Konzerts? Letzteres ist eindeutig der Fall, wenn Sie vorhaben, das zu sehen Gewalttätige Frauen. Oft machen Kontext und Sprache diese Urteile so deutlich, dass ein Algorithmus sie bestimmen kann. Wenn dies nicht der Fall ist, können Plattformen auf interne Experten oder sogar unabhängige Gremien wie das Oversight Board von Meta zurückgreifen, das knifflige Fälle im Zusammenhang mit den Inhaltsrichtlinien des Unternehmens bearbeitet.

Und wenn Plattformen unsere Argumentation akzeptieren, können sie Ressourcen von der fehlgeleiteten Aufgabe, zu entscheiden, was wahr ist, auf die immer noch schwierige, aber pragmatischere Aufgabe umlenken, herauszufinden, was Schaden verursacht. Auch wenn Fehlinformationen ein großes Problem darstellen, können Plattformen es nicht lösen. Plattformen können dazu beitragen, unsere Sicherheit zu erhöhen, indem sie sich auf das konzentrieren, was die Moderation von Inhalten leisten kann, und auf das verzichten, was sie nicht kann.


source site

Leave a Reply