YouTube verbietet Fehlinformationen gegen Impfungen – The New York Times

YouTube teilte am Mittwoch mit, dass es die Konten mehrerer prominenter Anti-Impfstoff-Aktivisten von seiner Plattform verbot, darunter die von Joseph Mercola und Robert F. Kennedy Jr., um alle Inhalte zu entfernen, die fälschlicherweise behaupten, dass zugelassene Impfstoffe seien gefährlich.

In einem Blog-Beitrag sagte YouTube, dass es Videos entfernen werde, in denen behauptet wird, dass Impfstoffe die Übertragungs- oder Kontraktionsraten von Krankheiten nicht reduzieren, sowie Inhalte, die Fehlinformationen über die Zusammensetzung der Impfstoffe enthalten. Behauptungen, dass zugelassene Impfstoffe Autismus, Krebs oder Unfruchtbarkeit verursachen oder dass die Impfstoffe Tracker enthalten, werden ebenfalls entfernt.

Die Plattform, die sich im Besitz von Google befindet, hat ein ähnliches Verbot von Fehlinformationen über die Covid-19-Impfstoffe. Aber die neue Richtlinie erweitert die Regeln auf irreführende Behauptungen über seit langem zugelassene Impfstoffe, wie etwa gegen Masern und Hepatitis B, sowie auf Unwahrheiten über Impfstoffe im Allgemeinen, sagte YouTube. Persönliche Zeugenaussagen zu Impfstoffen, Inhalte zu Impfstoffrichtlinien und neuen Impfstoffversuchen sowie historische Videos über Impfstofferfolge oder -fehlschläge dürfen auf der Website verbleiben.

„Die heutige Richtlinienaktualisierung ist ein wichtiger Schritt, um Fehlinformationen zu Impfstoffen und Gesundheit auf unserer Plattform zu bekämpfen.

Neben dem Verbot von Dr. Mercola und Mr. Kennedy hat YouTube auch die Konten anderer prominenter Anti-Impf-Aktivisten wie Erin Elizabeth und Sherri Tenpenny entfernt, sagte eine Unternehmenssprecherin.

Die neue Richtlinie bringt YouTube stärker in Einklang mit Facebook und Twitter. Im Februar kündigte Facebook an, Beiträge mit falschen Angaben zu Impfstoffen zu entfernen, einschließlich der Behauptung, dass Impfstoffe Autismus verursachen oder dass es für Menschen sicherer ist, sich mit dem Coronavirus zu infizieren, als sich dagegen impfen zu lassen. Aber die Plattform bleibt ein beliebtes Ziel für Leute, die über Fehlinformationen diskutieren, wie zum Beispiel die unbegründete Behauptung, dass das Arzneimittel Ivermectin eine wirksame Behandlung von Covid-19 ist.

Im März, Twitter eine eigene Politik eingeführt das erklärte die Strafen für das Teilen von Lügen über das Virus und die Impfstoffe. Aber das Unternehmen hat eine Fünf-„Streiks“-Regel, bevor es Personen dauerhaft ausschließt, die gegen seine Coronavirus-Fehlinformationsrichtlinie verstoßen.

Die Konten solch hochkarätiger Anti-Impf-Aktivisten wie Dr. Mercola und Mr. Kennedy bleiben auf Facebook und Twitter aktiv – obwohl Instagram, das zu Facebook gehört, Mr. Kennedys Konto gesperrt hat.

Fehlinformationsforscher haben seit Jahren auf die Verbreitung von Anti-Impfstoff-Inhalten in sozialen Netzwerken als Faktor für das Zögern von Impfstoffen hingewiesen – einschließlich der Verlangsamung der Adoption von Covid-19-Impfstoffen in konservativeren Staaten. Berichte haben gezeigt, dass YouTube-Videos oft als Quelle für Inhalte dienen, die anschließend auf Plattformen wie Facebook und Twitter viral werden und manchmal Dutzende Millionen Aufrufe erzielen.

„Die Richtlinien einer Plattform wirken sich aufgrund der Art und Weise, wie Netzwerke über Dienste hinweg funktionieren, auf die Durchsetzung aller anderen aus“, sagte Evelyn Douek, Dozentin an der Harvard Law School, die sich auf Online-Sprache und Fehlinformationen konzentriert. „YouTube ist beispielsweise eine der am stärksten verlinkten Domains auf Facebook.“

Sie fügte hinzu: „Es ist nicht möglich, sich diese Probleme Plattform für Plattform vorzustellen. So halten Impfgegner sie nicht. Wir müssen das Internet-Ökosystem als Ganzes betrachten.“

Prominente Anti-Impfstoff-Aktivisten konnten sich online ein riesiges Publikum aufbauen, unterstützt durch die algorithmischen Fähigkeiten sozialer Netzwerke, die Videos und Posts priorisieren, die besonders erfolgreich die Aufmerksamkeit der Menschen auf sich ziehen. Eine gemeinnützige Gruppe, Center for Countering Digital Hate, veröffentlichte in diesem Jahr eine Studie, die zeigt, dass eine Gruppe von 12 Personen 65 Prozent aller Anti-Impfstoff-Nachrichten in den sozialen Medien geteilt hat, und nannte die Gruppe das „Desinformations-Dutzend“. Im Juli zitierte das Weiße Haus die Forschung, als es Technologieunternehmen dafür kritisierte, dass sich Fehlinformationen über das Coronavirus und Impfstoffe weit verbreitet haben, was ein angespanntes Hin und Her zwischen der Regierung und Facebook auslöste.

Dr. Mercola, ein osteopathischer Arzt, belegte den ersten Platz im Desinformations-Dutzend. Seine Followerzahl auf Facebook und Instagram beträgt insgesamt mehr als drei Millionen, während sein YouTube-Account vor seiner Auflösung fast eine halbe Million Follower hatte. Der noch aktive Twitter-Account von Dr. Mercola hat über 320.000 Follower.

YouTube gab an, im vergangenen Jahr über 130.000 Videos wegen Verstoßes gegen seine Covid-19-Impfstoffrichtlinien entfernt zu haben. Dies beinhaltete jedoch nicht das, was die Videoplattform als „Borderline-Videos“ bezeichnete, in denen die Impfstoffskepsis auf der Website diskutiert wurde. In der Vergangenheit hat das Unternehmen solche Videos einfach aus Suchergebnissen und Empfehlungen entfernt und gleichzeitig Videos von Experten und öffentlichen Gesundheitseinrichtungen beworben.

Ben Decker Forschung beigetragen.


source site

Leave a Reply