Was man auf YouTube nicht sagen darf

Kürzlich habe ich auf einem YouTube-Kanal etwas gesagt abscheulich, aber ich weiß nicht, was es war. Das Hauptthema der Diskussion – mein Bericht über die Macht der Online-Gurus – war an sich nicht anstößig. Es könnte etwas über die frühere Heroinsucht des Komikers und Provokateurs Russell Brand oder über Kindesmissbrauchsskandale in der katholischen Kirche gewesen sein. Ich weiß, es war nicht das Wort Nazi, weil wir das sorgfältig vermieden haben. Was auch immer es war, es reichte aus, um das Interview zu demonstrieren, was bedeutet, dass keine Werbung dagegen geschaltet werden konnte und mein Host keine Einnahmen daraus erzielte.

„Es fängt an, dich wahnsinnig zu machen“, sagt Andrew Gold, dessen Kanal „On the Edge“ der Ort war, an dem ich mein unerklärliches Vergehen begangen habe. Wie viele Vollzeit-YouTuber verlässt er sich auf das AdSense-Programm der Google-eigenen Website, das ihm einen Teil der Einnahmen aus den vor und während seiner Interviews eingefügten Anzeigen gewährt. Beim Start einer neuen Folge erklärte mir Gold: „Sie erhalten ein grünes Dollarzeichen, wenn es monetarisierbar ist, und es wird gelb, wenn es nicht monetarisierbar ist.“ YouTuber können diese Urteile anfechten, aber das braucht Zeit – und die meisten Videos werden in den ersten Stunden nach dem Start mehrheitlich angesehen. Vermeiden Sie das gelbe Dollarzeichen also besser von vornherein. Wenn Sie mit YouTube Geld verdienen wollen, müssen Sie aufpassen, was Sie sagen.

Aber wie? Die Liste der Inhaltsrichtlinien von YouTube ist sowohl erschöpfend als auch nebulös. „Inhalte, die Themen wie Kindes- oder sexueller Missbrauch als Hauptthema ohne detaillierte Beschreibungen oder grafische Darstellungen behandeln“, können demonstriert werden, ebenso wie „persönliche Berichte oder Meinungsbeiträge zum Thema Abtreibung als Hauptthema ohne grafische Darstellung“. Berichte aus der ersten Person über häusliche Gewalt, Essstörungen und Kindesmissbrauch sind definitiv tabu, wenn sie „schockierende Details“ enthalten. YouTube wendet bei Verstößen eine Richtlinie mit drei Verwarnungen an: Die erste Verwarnung ist eine Verwarnung; die zweite hindert Ersteller eine Woche lang daran, neue Posts zu erstellen; und bei der dritten (wenn sie innerhalb von 90 Tagen nach der zweiten eingeht) wird der Kanal gesperrt.

Für die beliebtesten Ersteller kann die Website ein Millionenpublikum und entsprechende finanzielle Belohnungen anziehen. Aber für fast alle anderen ist die Produktion von Inhalten eine Qual, da die Ersteller ermutigt werden, regelmäßig zu posten und Inhalte in den TikTok-Rivalen Shorts umzupacken. Obwohl viele Arten von Inhalten niemals gegen die Richtlinien verstoßen werden – wenn Sie MrBeast sind und zur Freude Ihrer 137 Millionen Abonnenten Geld an Fremde ausgeben, werden Regeln gegen Hassreden und Fehlinformationen kein Thema sein – politische Diskussionen sind es den Launen der Algorithmen unterworfen.

In Ermangelung genügend menschlicher Moderatoren, um die geschätzten 500 Stunden an Videos zu bewältigen, die jede Minute hochgeladen werden, verwendet YouTube künstliche Intelligenz, um seine Richtlinien durchzusetzen. Bots scannen automatisch generierte Transkripte und markieren einzelne Wörter und Phrasen als problematisch, daher das Problem mit dem Sagen Heroin. Obwohl „erzieherische“ Verweise auf den Drogenkonsum erlaubt sind, könnte das Wort den KI-Stolperdraht verhaken und einen Ersteller zwingen, eine zeitaufwändige Überprüfung zu beantragen.

Andrew Gold bat um eine solche Überprüfung für sein Interview mit mir, und das Dollarzeichen wurde ordnungsgemäß grün – was bedeutet, dass die Website schließlich Anzeigen neben den Inhalten lieferte. „Es war ein Risiko“, sagte er mir, „weil ich nicht weiß, wie es meine Bewertung beeinflusst, wenn ich es falsch mache … Und sie sagen mir nicht, ob es das ist Nazis, Heroin, oder irgendwas. Man fragt sich nur noch, was es war.“

Frustrationen wie die von Gold erhalten selten viel Aufmerksamkeit, da das Gespräch über die Moderation von Inhalten online von großen Namen dominiert wird, die sich über völlige Verbote beschweren. Perverserweise sind die ungeheuerlichsten Händler von Fehlinformationen jedoch besser in der Lage als gewöhnliche YouTuber, sich an die YouTube-Regeln zu halten. Eine Forschungsarbeit von Yiqing Hua von der Cornell University und anderen stellte letztes Jahr fest, dass Menschen, die Randinhalte mit hohem Risiko der Demonetisierung erstellten – wie Inhalte für Alt-Right- oder „Manosphere“-Kanäle –, mit größerer Wahrscheinlichkeit als andere Ersteller alternative Geldverdienen nutzten Praktiken wie Affiliate-Links oder das Anspornen von Zuschauern, sich auf anderen Plattformen anzumelden. Sie haben nicht einmal versucht, ihre Inhalte auf YouTube zu monetarisieren – um das Streiksystem zu umgehen – und nutzten die Plattform stattdessen als Schaufenster. Sie wurden dann mehr produktiv auf YouTube, weil Demonetarisierung ihre Fähigkeit, ihren Lebensunterhalt zu verdienen, nicht mehr beeinträchtigte.

Zu den anderen Plattformen, die solche Influencer nutzen, gehört Rumble, eine Website, die sich selbst als „immun gegen Kulturabbruch“ bezeichnet und Investitionen vom Risikokapitalgeber Peter Thiel und Senator JD Vance aus Ohio erhalten hat. Im Januar gab der republikanische Gouverneur von Florida, Ron DeSantis, bekannt, dass Rumble nun sein „Video-Sharing-Dienst der Wahl“ für Pressekonferenzen sei, weil er von Google wegen seiner YouTube-Behauptungen über die Coronavirus-Pandemie „zum Schweigen gebracht“ worden sei. Kürzlich posierte Russell Brand (ein linker, knuspriger, COVID-skeptischer Hasser der Eliten) in einer wahren Demonstration der Hufeisentheorie mit Donald Trump Jr. (einem rechten, Nepo-Baby, COVID-skeptischen Hasser der Eliten). auf einer von Rumble veranstalteten Party, wo sie zwei der beliebtesten Schöpfer sind. Brand unterhält eine Präsenz auf YouTube, wo er 6 Millionen Abonnenten hat, aber nutzt es als genau die Art von Schaufenster, die von den Cornell-Forschern identifiziert wurde. Er sagte Joe Rogan kürzlich, dass er sich jetzt auf Rumble als seine Hauptplattform verlässt, weil er die „wilde Algebra“ von YouTube satt hat.

Für Mega-Prominente – einschließlich hochbezahlter Podcaster und potenzieller Präsidentschaftskandidaten – ist es eine großartige Möglichkeit, sich als Außenseiter oder Märtyrer auszugeben, wenn sie gegen die Moderation von Big Tech wettern. Aber sprechen Sie mit alltäglichen YouTubern, und sie sind mehr als bereit, sich an die Regeln zu halten, von denen sie anerkennen, dass sie YouTube sicherer und genauer machen sollen. Sie wollen nur wissen, was diese Regeln sind, und sehen, dass sie konsequent angewendet werden. So wie es aussieht, verglich Gold seine Erfahrung, unpersönlich über nicht näher bezeichnete Verstöße benachrichtigt zu werden, mit der Arbeit für HAL9000, den Computeroberherrn von 2001: Eine Weltraum-Odyssee.

Einer der problematischsten Inhaltsbereiche ist COVID – über den es sowohl legitime Debatten über Behandlungen, Impfstoffe als auch über Sperrrichtlinien gibt Und ein großer Strom von Fehlinformationen und Verschwörungstheorien. „Das erste Video, das ich jemals auf YouTube gepostet habe, war ein Video über Ivermectin, das erklärte, warum es keine Beweise für seine Verwendung bei COVID gab“, sagte mir die Schöpferin Susan Oliver, die in Nanomedizin promoviert hat. „YouTube hat das Video sechs Stunden später entfernt. Ich habe Einspruch gegen die Entfernung eingelegt, aber sie haben meinen Einspruch abgelehnt. Danach habe ich mir fast nicht die Mühe gemacht, ein weiteres Video zu machen.“

Seitdem ist Olivers Kanal Back to the Science, der etwa 7.500 Abonnenten hat, auf ein ständiges Problem gestoßen – eines davon andere Debunker auch konfrontiert haben. Wenn sie in einem Video falsche Informationen anführt, um es anzufechten, droht ihr eine Anzeige wegen Fehlinformationen. Dies geschah mit einem Video, in dem auf die falschen Behauptungen des beliebten Schöpfers John Campbell verwiesen wurde, dass COVID-Impfstoffe mit Hirnverletzungen in Verbindung gebracht werden. Ihr Video wurde entfernt (und nur im Berufungsverfahren wiederhergestellt) und sein Video blieb bestehen. „Die einzigen Dinge in meinem Video, die wahrscheinlich den Algorithmus ausgelöst haben, waren Clips aus Campbells Originalvideo“, sagte mir Oliver. Ein weiteres Problem für YouTube: COVID-Skepsis ist unglaublich beliebt. Olivers Inhalt, der Campbells Rhetorik zu Hirnverletzungen kritisiert, hat etwas mehr als 10.000 Aufrufe. Sein Originalvideo hat mehr als 800.000.

Oliver fragte sich, ob Campbells Fans sie massenhaft meldeten – eine Praxis, die als „Brigaden“ bekannt ist.

„Es scheint, dass YouTube es großen, profitablen Kanälen ermöglicht, jede Lücke zu nutzen, um Fehlinformationen zu verbreiten, während kleinere Kanäle hart getroffen werden, ohne deren Inhalte überhaupt richtig zu überprüfen“, sagte sie. Aber ein Google-Sprecher, Michael Aciman, sagte mir, das sei nicht der Fall. „Die Anzahl der Flags, die ein Inhalt möglicherweise erhält, ist kein Faktor, den wir verwenden, wenn wir Inhalte anhand unserer Community-Richtlinien bewerten“, sagte er. „Außerdem spielen diese Flags bei Monetarisierungsentscheidungen keine Rolle.“

YouTube ist nicht das einzige soziale Netzwerk, in dem Entwickler Schwierigkeiten haben, durch undurchsichtige Moderationssysteme mit begrenzten Einspruchsmöglichkeiten zu navigieren. Benutzer von TikTok – wo einige Mitwirkende auf der Grundlage ihrer Ansichten aus einem „Creator Fund“ bezahlt werden – haben ein ganzes Vokabular entwickelt, um durch die automatisierte Zensur zu navigieren. Niemand wird auf TikTok getötet; sie werden „unbelebt“. Es gibt keine Lesben, sondern „le dollar beans“ (le$beans). Leute, die Sex verkaufen, sind „würzige Buchhalter“. Ziel ist es, diese sozialen Netzwerke sowohl familien- als auch werbefreundlich zu erhalten; Sowohl Eltern als auch Unternehmen möchten, dass diese Räume „sicher“ sind. Das Ergebnis ist eine seltsame Blüte von Euphemismen, die einen 7-Jährigen nicht täuschen würden.

Nicht jeder findet die Beschränkungen von YouTube übermäßig belastend. Der Podcaster Chris Williamson, dessen YouTube-Kanal 750.000 Abonnenten hat und etwa sechs Videos pro Woche veröffentlicht, sagte mir, dass er das Fluchen in den ersten fünf Minuten von Videos jetzt stumm schaltet, nachdem er einen Tipp von einem anderen YouTuber erhalten hat. Auch wenn sein Kanal „brush[es] am Rande vieler scharfer Themen“, sagte er, das einzige wirkliche Problem war, als er „die C-Bombe“ 85 Minuten lang in einem zweieinhalbstündigen Video abwarf, das dann demonstriert wurde. „Die Richtlinien werden in anderen Bereichen, die mich nicht betreffen, möglicherweise strenger“, sagte er, „aber solange ich C-Bomben vermeide, scheint mein Kanal in Ordnung zu sein.“ (Während ich diese Geschichte berichtete, veröffentlichte YouTube ein Update der Richtlinien, das die Regeln zum Fluchen klarstellt, und versprach, zuvor demonstrierte Videos zu überprüfen.)

Als bekannter YouTuber hat Williamson einen großen Vorteil: YouTube hat ihm einen Partner-Manager zugewiesen, der ihm helfen kann, die Richtlinien der Website zu verstehen. Kleinere Kanäle müssen sich auf unpersönliche, weitgehend automatisierte Systeme verlassen. Ihre Verwendung kann sich anfühlen, als würde man ins Leere schreien. Williamson ergänzt seine AdSense-Einnahmen aus YouTube-Anzeigen auch durch Sponsoring- und Affiliate-Links, wodurch die Demonetarisierung weniger Anlass zur Sorge gibt. „Jeder Ersteller, der für sein Einkommen ausschließlich auf AdSense angewiesen ist, spielt ein suboptimales Spiel“, sagte er.

Aciman, der Google-Sprecher, sagte mir, dass alle Kanäle auf YouTube die Community-Richtlinien einhalten müssen, die medizinische Fehlinformationen und Hassreden zu COVID-19 verbieten – und dass Kanäle, die Werbeeinnahmen erhalten, einem höheren Standard unterliegen, um sie einzuhalten mit den „Richtlinien für werbefreundliche Inhalte“. „Wir verlassen uns auf maschinelles Lernen, um Millionen von Videos auf unserer Plattform auf ihren Monetarisierungsstatus hin zu bewerten“, fügte Aciman hinzu. „Kein System ist perfekt, daher ermutigen wir Entwickler, eine menschliche Überprüfung anzufordern, wenn sie der Meinung sind, dass wir uns geirrt haben. Wie wir gezeigt haben, kehren wir diese Entscheidungen gegebenenfalls um, und jeder Einspruch hilft unseren Systemen, mit der Zeit intelligenter zu werden.“

YouTube befindet sich in einer schwierigen Position und urteilt zwischen denen, die behaupten, dass es zu stark moderiert, und anderen, die sich darüber beschweren, dass es nicht genug tut. Und jede Dämonisierung ist ein direkter Schlag für das eigene Endergebnis. Ich sympathisiere mit der misslichen Lage der Website, stelle aber auch fest, dass YouTube einem der reichsten Technologieunternehmen der Welt gehört und ein Teil dieses Reichtums auf einem Geschäftsmodell der unkomplizierten, automatisierten Moderation beruht. Im letzten Quartal des Jahres 2022 erzielte YouTube fast 8 Milliarden US-Dollar an Werbeeinnahmen. Es gibt einen sehr guten Grund, warum Journalismus nicht so profitabel ist: Stellen Sie sich vor, YouTube würde seine Inhalte so sorgfältig bearbeiten wie eine alte Zeitung oder ein Fernsehkanal – sogar ein ziemlich schlampiger. Sein großer Fluss von Videos würde zu einem Rinnsal verlangsamen.


source site

Leave a Reply