Die Coronavirus-Herausforderung der sozialen Medien: Verantwortung – POLITICO



Dieser Artikel ist Teil von After Corona, einer Serie, die untersucht, wie die Pandemie die Welt verändert hat.

Die COVID-19-Pandemie hat alles verändert – selbst für Social-Media-Giganten wie Facebook und Twitter.

In den letzten 18 Monaten, als die weltweite Zahl der Todesopfer auf mehr als 4 Millionen Menschen anstieg, übernahmen diese Technologieunternehmen, die sich einst als neutrale Plattformen für freie Meinungsäußerung betrachteten, eine zunehmend praktische Rolle bei der Überwachung der Aussagen der Benutzer über die öffentliche Gesundheit. Sie haben Millionen von Posts entfernt, die Online-Unwahrheiten verbreiten. Sie zensierten globale Führer, die sich für Fehlinformationen zu COVID-19 einsetzten. Sie förderten die offizielle Gesundheitsberatung zu Impfstoffen für Milliarden weltweit.

Kurz gesagt, unter dem Druck des weltweiten Notfalls im Bereich der öffentlichen Gesundheit wurden Social-Media-Plattformen zu Informationsvermittlern. Jetzt, wo die Welt in Richtung einer neuen Realität nach COVID stolpert, erkennen sie schnell, dass sie weit mehr abgebissen haben, als sie kauen können.

„Der Umgang mit COVID hat der Welt wirklich gezeigt, dass sie bei Bedarf entschlossen handeln kann“, sagte Philip Howard, Direktor des Programms für Demokratie und Technologie der Universität Oxford.

Die politischen Entscheidungsträger in Brüssel, Washington und anderswo haben miterlebt, wie Technologieunternehmen über das Know-how und die Bereitschaft verfügen, potenziell schädliche Inhalte zu überwachen, zu verfolgen und zu entfernen, und erhöhen den Druck auf die Plattformen, noch mehr zu tun. Dazu gehört alles, vom Entfernen unzähliger COVID-19-Posts in den sozialen Medien bis hin zur Öffnung der Inhaltsalgorithmen von Unternehmen für eine stärkere öffentliche Kontrolle.

Angesichts der wachsenden öffentlichen Wut über Social-Media-Inhalte fordern Regierungen von diesen Unternehmen auch, ähnliche Beschränkungen auf andere heiße Themen anzuwenden, bei denen spaltende und oft falsche Beiträge ebenfalls weitreichende Schäden verursachen können, wie z. „Für mich ist die nächste große Krisenfrage der Klimawandel, bei dem der wissenschaftliche Konsens genauso stark ist wie der Konsens im Bereich der öffentlichen Gesundheit über COVID“, fügte Howard hinzu.

Dies hat einige der größten Namen des Silicon Valley in eine Zwickmühle gebracht – in vielerlei Hinsicht einer von ihnen selbst – über eine immer höhere Messlatte für die Art von zweifelhaften Inhalten, die sie im Internet überwachen müssen. Indem sie eine aggressive, aber unvollständige Haltung zu COVID-19-Fehlinformationen einnehmen, entdecken Social-Media-Giganten, dass sie eine Büchse der Pandora geöffnet haben, wenn es darum geht, wie Beiträge online verfolgt werden, und eine, die nach der aktuellen Pandemie fast unmöglich zu schließen sein wird ebbt in die Erinnerung ein.

COVID-19-Fehlinformationen

Chine Labbe hatte einen Sitz in der ersten Reihe der sogenannten COVID-19-“Infodemie”.

Als europäische Chefredakteurin von NewsGuard, einem Analyseunternehmen, das digitale Unwahrheiten verfolgt, arbeiten die ehemalige Reporterin und ihr Team mit der Weltgesundheitsorganisation (WHO) zusammen, um zu verfolgen, welche Coronavirus-Hoaxes und Verschwörungstheorien im Trend liegen. Ein Bericht im letzten Monat ergab, dass bei der Eingabe von „Covid“ in die Suchleiste von TikTok, dem chinesischen Social-Media-Dienst zum Teilen von Videos, Vorschläge zur automatischen Vervollständigung wie „Covid-Impfstoff-Nebenwirkungen“ und „Covid-Impfstoffmagnet“ angezeigt wurden. Ein anderer zeigte, dass fest verankerte Anti-Impfstoff-Influencer an Zehntausende von Followern auf Facebook und Instagram sendeten.

“Ich habe das Gefühl, dass ich immer wieder dasselbe sage”, sagte Labbe. „Auf vielen dieser Plattformen gibt es noch immer Fehlinformationen.“

Labbes Arbeit zeigt, wie Social-Media-Giganten eineinhalb Jahre nach der globalen Krise immer noch damit kämpfen, zu sortieren, was wahr und was falsch ist – insbesondere, wenn Anbieter von Junk Science ihre Waren in technisch klingenden Jargon verpacken. Die Tatsache, dass führende Wissenschaftler oft anderer Meinung sind, macht es nicht einfacher.

Die Flut von Unwahrheiten hat den Handlungsdruck auf Plattformen erhöht, da es immer mehr, wenn auch noch junge, Beweise gibt, die virale Fehlinformationen mit schädlichen Gesundheitsergebnissen in Verbindung bringen. Ein kürzlich von Experten begutachtetes Papier entdeckte beispielsweise einen Zusammenhang zwischen falschen Gerüchten, dass das Trinken von konzentriertem Alkohol das Coronavirus bei etwa 800 Menschen töten könnte, die an einer Alkoholvergiftung sterben.

„Die Verbreitung gesundheitlicher Fehlinformationen ist wichtig, weil sie für die Gesundheit der Menschen gefährlich sein kann, wie wir bei dieser Pandemie gesehen haben“, sagte Aleksandra Kuzmanovic, Social-Media-Managerin bei der WHO. “Die falschen Ratschläge zur Vorbeugung oder Behandlung der Virusinfektion können schädliche Auswirkungen auf die Gesundheit der Menschen haben und sogar zum Tod führen.”

Social-Media-Unternehmen sagen, dass sie Dutzende von COVID-19-Fehlinformationen gelöscht haben; entfernte unzählige extremistische Konten und Bewegungen wie die QAnon-Verschwörungstheorie; und arbeitete sowohl mit unabhängigen Faktenprüfern als auch mit öffentlichen Gesundheitsbehörden zusammen, um Milliarden von Menschen mit aktuellen Informationen über die globale Pandemie zu versorgen.

Und doch ist es oft leichter gesagt als getan, Tatsachen von schädlicher Fiktion zu unterscheiden. Laut Experten des öffentlichen Gesundheitswesens macht die sich schnell entwickelnde COVID-19-Wissenschaft die Kennzeichnung irreführender Coronavirus-Beiträge komplizierter als das Herausfiltern terroristischer Inhalte – selbst wenn globale Führer wie US-Präsident Joe Biden Technologiegiganten auffordern, mehr zu tun, um die Bedrohung durch Fehlinformationen zu bekämpfen.

Im vergangenen Monat wurde beispielsweise in einer legitimen, von Experten begutachteten Zeitschrift eine Analyse veröffentlicht, die behauptete, dass Coronavirus-Impfstoffe zwei Todesfälle pro drei geretteten Leben verursachten. Tage später wurde es inmitten des Aufschreis zurückgezogen, jedoch nicht bevor das Papier im Internet weit verbreitet war.

Facebook hat kürzlich auch seine Politik des Sperrens von Posts aufgehoben, in denen behauptet wird, dass die Pandemie durch ein Leck aus einem chinesischen Labor verursacht wurde – eine Idee, die einst als Verschwörungstheorie abgetan wurde – nachdem Mainstream-Experten begannen, diese Möglichkeit zu diskutieren.

Der Aufstieg extremistischer Inhalte

Wenn es um andere Arten gefährlicher Rede geht, wie zum Beispiel das Entfernen extremistischen Materials im Internet, sind die Bemühungen noch in Arbeit.

Facebook, Google und Twitter haben die Dschihad-Propaganda aggressiv gelöscht – und sich branchenweiten Bemühungen angeschlossen, ihre Reaktionen zu koordinieren. Aber die Plattformen waren viel langsamer bei der Bekämpfung rechtsextremer Inhalte, die oft in der Grauzone zwischen legitimem politischem Diskurs und offener Hassrede liegen.

Führungskräfte sagen, dass die Bekämpfung von Desinformation während der anhaltenden Pandemie, die sich unmittelbar auf die Gesundheit der Menschen auswirken kann, sich von der Überwachung der langfristigen Auswirkungen des demokratischen Prozesses eines Landes unterscheidet. Und doch sind Unternehmen nach den Unruhen am 6. Januar auf dem Capitol Hill in Washington zunehmend unter Druck geraten, zu handeln, wobei die politischen Entscheidungsträger wiederholt die Beseitigung von COVID-19-Unwahrheiten als Beispiel dafür anführen, was getan werden kann, wenn Unternehmen sich darauf konzentrieren es. Der Vorstoß gegen den Rechtsextremismus hat unangenehme Fragen über die Rolle dieser Privatunternehmen bei der polizeilichen politischen Rede aufgeworfen, einschließlich der Entfernung der Social-Media-Konten des ehemaligen US-Präsidenten Donald Trump.

„Es gibt wahrscheinlich ungefähr 10 klare Signale dafür, dass es sich bei Inhalten um COVID-Fehlinformationen handelt“, sagte Adam Hadley, Direktor von Tech Against Terrorism, einer gemeinnützigen Organisation, die mit Social-Media-Unternehmen zusammenarbeitet, um schädliches Material zu entfernen. „Aber rassistische Inhalte sind so weit gefasst. Wir müssen uns das genauer ansehen, was wir unter rassistischen Inhalten und was wir unter terroristischen Inhalten verstehen.“

Dennoch dauert es nicht lange, in den sozialen Medien weiße Rassisten und rechtsextreme Gruppen zu finden – Beweise dafür, dass die Plattformen immer noch nicht gegen solches Material vorgehen.

Das Global Project Against Hate and Extremism (GPAHE), eine linksgerichtete gemeinnützige Organisation, die solches Material verfolgt, fand mehr als 50 YouTube-Kanäle – mit einem Gesamtpublikum von über 100.000 Zuschauern – mit Verbindungen zur sogenannten Generation Identity-Bewegung, deren Aufgrund ihrer einwanderungsfeindlichen und weißen Vorherrschaftshaltung wurden sie in Frankreich bzw. Österreich verboten.

Facebook hat den transnationalen Konzern im vergangenen Jahr aus seinem Netzwerk entfernt. Im Video-Streaming-Dienst von Google konnten die Extremisten jedoch Desinformation fördern, die auf Minderheitengruppen abzielte, sowie von Werbung profitieren, die neben ihren Online-Videos angezeigt wurde, basierend auf der Überprüfung der Analyse von GPAHE durch POLITICO. Der Suchalgorithmus von YouTube schlug auch andere rechtsextreme Kanäle mit Verbindungen zur Generation Identity-Bewegung vor. Google lehnte eine Stellungnahme ab.

“Es gibt so viel von diesem Inhalt. Es ist eine Senkgrube”, sagte Wendy Via, Präsidentin von GPAHE. „Als sie anfingen, sich auf allen Plattformen mit islamischen Extremismus-Inhalten zu befassen, gab es einen weltweiten Konsens, dass dies angegangen werden musste. Aber wenn es um Rechtsextremismus geht, ist es ein Kampf, weil er in breitere gesellschaftliche Konstrukte eingebunden ist. “

Polizeiliche Online-Wahl

Eine jüngste Landtagswahl in Deutschland zeigt, wie schwierig es sein kann, politische Inhalte zu kontrollieren.

Ein auf Twitter gepostetes Foto behauptete, Stimmzettel für die rechtsextreme deutsche Partei Alternative for Deutschland (AfD) zu zeigen, die verwöhnt wurden, um den Wahlerfolg der Gruppe zu behindern. Von einem ehemaligen prominenten AfD-Politiker auf die Plattform hochgeladen, wurde das Bild hunderte Male geteilt.

Es gab nur ein Problem: Es war gefälscht. Es war eine Neuaufnahme eines Fotos, das während der US-Präsidentschaftswahlen im November aus einem Wahllokal aufgenommen wurde, auf dem der ursprüngliche Social-Media-Nutzer (ohne Beweise) behauptet hatte, Arbeiter hätten amerikanische Stimmzettel vernichtet.

Social-Media-Unternehmen müssen mit vielen ähnlichen Vorfällen rechnen, während Deutschland im September auf die Bundestagswahl zusteuert. Falsche Behauptungen über Wahlbetrug, die oft von führenden rechtsextremen Politikern propagiert werden, nehmen trotz der Bemühungen dieser Firmen, solche Online-Unwahrheiten einzudämmen, immer mehr zu. Auch in Russland ansässige Mediengruppen wie RT haben über ihre Social-Media-Konten ein positives Image der AfD gefördert, basierend auf Analysen des Institute for Strategic Dialogue, einer in London ansässigen Denkfabrik, die Online-Extremismus in der Europäischen Union und den Vereinigten Staaten verfolgt.

“Die extreme Rechte versucht, das Vertrauen in die Wahlen zu untergraben”, sagte Julia Smirnova, eine der Forscherinnen, die die Social-Media-Aktivitäten rund um die Wahlen in Sachsen-Anhalt überprüft haben. “Russische Staatsmedien haben über die AfD positiver berichtet und ihren Politikern mehr Raum gegeben als anderen politischen Parteien.”

Bisher reagierten die Technologiegiganten nur langsam, obwohl Unternehmensleiter betonen, dass sie mit den deutschen Behörden zusammenarbeiten, um die schlimmsten Straftäter auszusortieren und gleichzeitig einen offenen Online-Raum für die Diskussion der bevorstehenden Wahlen bereitzustellen. Sie sagen, sie hätten Lehren aus den jüngsten US-Präsidentschaftswahlen gezogen, einschließlich der Bemühungen, politisch spaltende Inhalte herabzustufen und falsche Behauptungen führender Politiker auf Fakten zu überprüfen.

Aber sie könnten noch viel mehr tun. Laut Felix Kartte, einem ehemaligen EU-Beamten, der die Desinformationsarbeit mehrerer deutscher gemeinnütziger Organisationen um die Abstimmung im September über Reset koordiniert, eine Technologie-Befürwortungsgruppe.

Die lokalen Behörden, sagte er, hätten aufgrund von Bedenken, die politische Debatte zu behindern, nur langsam gehandelt, während Plattformen – trotz wachsender Anrufe während der COVID-19-Pandemie – ihre Netzwerke nur langsam für die Kontrolle von außen geöffnet hätten.

“Deutschland hat eine sehr wichtige stabilisierende Funktion für die westliche Demokratie”, fügte Kartte hinzu. “Wenn hier Wahlbetrug oder politisch motivierte frauenfeindliche Inhalte durchkommen, was sagt das über den Umgang der Plattformen mit diesen Inhalten in anderen Ländern aus?”

Diese Frage müssen Social-Media-Unternehmen beantworten. Indem sie gezeigt haben, dass sie bereit und (meistens) in der Lage sind, Inhalte zu überwachen, haben sie sich dafür geöffnet.

Dieser Artikel wird redaktionell unabhängig erstellt von produced POLITIK Reporter und Redakteure. Mehr erfahren über redaktionelle Inhalte, die von externen Werbetreibenden präsentiert werden.

.



Source link

Leave a Reply