Die Welt wird nie die Wahrheit über die Rabbit Holes von YouTube erfahren

Ungefähr zur Zeit der Wahl 2016 wurde YouTube als Heimat der aufstrebenden Alt-Rechten und äußerst populärer Verschwörungstheoretiker bekannt. Die Google-eigene Website hatte mehr als eine Milliarde Nutzer und beherbergte charismatische Persönlichkeiten, die enge Beziehungen zu ihrem Publikum aufgebaut hatten, was sie möglicherweise zu einem mächtigen Vektor für politischen Einfluss machte. Zu dieser Zeit hatte Alex Jones‘ Kanal Infowars mehr als 2 Millionen Abonnenten. Und der Empfehlungsalgorithmus von YouTube, der den Großteil dessen ausmachte, was die Leute auf der Plattform sahen, schien die Menschen immer tiefer in gefährliche Wahnvorstellungen zu verwickeln.

Der Prozess des „Herunterfallens“ wurde einprägsam durch persönliche Berichte von Menschen veranschaulicht, die auf seltsamen Wegen in das dunkle Herz der Plattform gelandet waren, wo sie von extremistischer Rhetorik fasziniert und dann überzeugt wurden – einem Interesse an Kritik am Feminismus könnte zu Männerrechten und dann zur Vorherrschaft der Weißen führen und dann zu Gewalt aufrufen. Am besorgniserregendsten ist, dass eine Person, die nicht unbedingt nach extremen Inhalten sucht, diese am Ende ansehen könnte, weil der Algorithmus bei ihren vorherigen Entscheidungen ein Flüstern von etwas bemerkt hat. Es könnte die schlimmsten Impulse einer Person verstärken und sie an einen Ort führen, den sie sich nicht ausgesucht hätte, aus dem sie aber nur schwer wieder herauskommen würde.

Es war nicht ganz klar, wie groß das Problem bei YouTube war, und das Unternehmen bestritt, überhaupt eines zu haben, obwohl es Änderungen vornahm, um auf die Kritikpunkte einzugehen. Anfang 2019 kündigte YouTube Änderungen an seinem Empfehlungssystem an, mit dem Ziel, die Werbung für „schädliche Fehlinformationen“ und „grenzwertigen Inhalt“ (die Art von Videos, die es waren) drastisch zu reduzieren fast extrem genug, um entfernt zu werden, aber nicht ganz). Gleichzeitig begann das Unternehmen auch damit, die Monetarisierung zu demonstrieren, indem es Programme zur gemeinsamen Nutzung von Werbeeinnahmen für YouTube-Ersteller blockierte, die sich nicht an die Richtlinien zu Hassreden hielten. Was auch immer YouTube weiterhin auf seiner Website zuließ, die Idee dahinter war, dass es ein Kaninchenloch sein würde ausgefüllt.

Eine neue, von Experten begutachtete Studie, heute veröffentlicht in Wissenschaftliche Fortschrittedeutet darauf hin, dass das YouTube-Update 2019 funktioniert hat. Das Forschungsteam wurde von Brendan Nyhan geleitet, einem Regierungsprofessor in Dartmouth, der Polarisierung im Kontext des Internets untersucht. Nyhan und seine Co-Autoren befragten 1.181 Menschen zu ihren aktuellen politischen Einstellungen und überwachten dann Ende 2020 über einen Zeitraum von mehreren Monaten mithilfe einer benutzerdefinierten Browsererweiterung alle ihre YouTube-Aktivitäten und -Empfehlungen nur 6 Prozent der Teilnehmer. Von diesen Leuten hatte die Mehrheit bewusst abonniert an mindestens einen extremistischen Kanal gesendet wurden, was bedeutet, dass sie nicht vom Algorithmus dorthin gedrängt wurden. Darüber hinaus gelangten diese Personen häufig über externe Links zu extremistischen Videos und nicht über YouTube.

Diese Betrachtungsmuster zeigten keine Hinweise auf einen Rabbit-Hole-Prozess, wie man ihn sich normalerweise vorstellt: Anstatt dass naive Nutzer plötzlich und unabsichtlich auf hasserfüllte Inhalte gestoßen werden, „sehen wir Menschen mit einem sehr hohen Maß an Geschlechts- und Rassenfeindlichkeit, die nach diesen Inhalten suchen.“ Nyhan hat es mir erzählt. Dass sich extremistische Inhalte vor allem über Abonnements und externe Links anschauen, sei „nur“ etwas [this team has] konnten wir dank der Methode erfassen“, sagt Manoel Horta Ribeiro, ein Forscher an der Eidgenössischen Technischen Hochschule Lausanne, der nicht an der Studie beteiligt war. Während in vielen früheren Studien zum YouTube-Kaninchenbau Bots eingesetzt werden mussten, um die Erfahrung zu simulieren, wie man durch die YouTube-Empfehlungen navigiert – indem man gedankenlos immer wieder auf das nächste vorgeschlagene Video klickt –, ist dies die erste, die so detaillierte Daten über reale, menschliche Daten erhalten hat Verhalten.

Die Studie weist jedoch einen unvermeidbaren Fehler auf: Sie kann nicht alles erklären, was auf YouTube vor der Erhebung der Daten im Jahr 2020 passiert ist. „Es kann sein, dass die anfällige Bevölkerung bereits in der YouTube-Ära vor 2019 radikalisiert wurde“, so Nyhan und erklären seine Co-Autoren in dem Artikel. Schließlich gibt es auf YouTube immer noch extremistische Inhalte, und einige Leute schauen sie sich immer noch an. Es besteht also ein Henne-Ei-Dilemma: Wer war zuerst da, der Extremist, der sich Videos auf YouTube ansieht, oder der YouTuber, der dort auf extremistische Inhalte stößt?

Das heutige YouTube zu untersuchen, um zu versuchen, das YouTube von vor einigen Jahren zu verstehen, ist, um eine andere Metapher zu verwenden, „ein bisschen ‚Äpfel und Birnen‘“, sagt Jonas Kaiser, ein Forscher am Berkman Klein Center for Internet and Society in Harvard, der nicht beteiligt war im Arbeitszimmer, erzählte es mir. Obwohl er es für eine solide Studie hält, erkennt er auch die Schwierigkeit, viel über die Vergangenheit einer Plattform zu erfahren, indem man sich eine Stichprobe von Benutzern aus der Gegenwart ansieht. Dies war auch ein wichtiges Thema bei einer Sammlung neuer Studien über die Rolle von Facebook bei der politischen Polarisierung, die letzten Monat veröffentlicht wurden (Nyhan arbeitete an einer davon). Diese Studien zeigten, dass es zwar Echokammern auf Facebook gibt, diese jedoch keine großen Auswirkungen auf die politische Einstellung der Menschen heute haben. Sie konnten jedoch nicht nachweisen, ob die Echokammern diese Auswirkungen bereits lange vor der Studie hatten.

Die neue Forschung ist immer noch wichtig, auch weil sie eine spezifische, technische Definition von vorschlägt Kaninchenbau. Der Begriff wurde im allgemeinen Sprachgebrauch und sogar in der akademischen Forschung auf unterschiedliche Weise verwendet. Nyhans Team definierte ein „Rabbit-Hole-Ereignis“ als ein Ereignis, bei dem eine Person einer Empfehlung folgt und zu einem extremeren Videotyp wechselt, als sie zuvor angesehen hat. Sie können nicht den Kanal, auf dem sie landen, oder ähnlich extreme Kanäle abonniert haben, bevor die Empfehlung sie dazu veranlasste. Dieser Mechanismus war in ihren Ergebnissen überhaupt nicht üblich. Sie sahen, dass es nur bei 1 Prozent der Teilnehmer wirkte, was nur 0,002 Prozent aller Aufrufe von Videos extremistischer Kanäle ausmachte.

Das ist toll zu wissen. Aber das bedeutet wiederum nicht, dass Kaninchenlöcher, wie das Team sie definierte, nicht früher einmal ein größeres Problem waren. Es ist nur ein guter Hinweis darauf, dass sie derzeit selten zu sein scheinen. Warum hat die Suche nach den Kaninchenlöchern so lange gedauert? „Es ist eine Schande, dass wir sie nicht auf beiden Seiten des Wandels erwischt haben“, gab Nyhan zu. „Das wäre ideal gewesen.“ Aber es hat Zeit gekostet, die Browser-Erweiterung zu erstellen (die jetzt Open Source ist, sodass sie von anderen Forschern verwendet werden kann), und es hat auch Zeit gekostet, eine ganze Menge Geld aufzubringen. Nyhan schätzte, dass die Studie etwa 100.000 US-Dollar an Fördermitteln erhielt, aber ein zusätzlicher Zuschuss der National Science Foundation, der an ein separates Team ging, das die Browser-Erweiterung entwickelte, war enorm – fast 500.000 US-Dollar.

Nyhan achtete darauf, nicht zu sagen, dass dieses Papier eine völlige Entlastung von YouTube darstellt. Die Plattform hat nicht aufgehört, mit ihrer Abonnementfunktion den Traffic zu Extremisten zu lenken. Außerdem ist es Nutzern weiterhin gestattet, extremistische Videos zu veröffentlichen. Und zu erfahren, dass nur ein kleiner Prozentsatz der Nutzer auf extremistische Inhalte stößt, ist nicht dasselbe wie dies zu erfahren niemand tut; Ein winziger Prozentsatz einer gigantischen Nutzerbasis repräsentiert immer noch eine große Anzahl von Menschen.

Dies spricht auch für das umfassendere Problem der neuen Facebook-Forschung vom letzten Monat: Die Amerikaner wollen verstehen, warum das Land so dramatisch polarisiert ist, und die Menschen haben die enormen Veränderungen in unserer Technologienutzung und unserem Informationskonsum in den Jahren gesehen, in denen diese Polarisierung am offensichtlichsten war . Aber das Web verändert sich jeden Tag. Dinge, die YouTube nicht mehr hosten möchte, könnten immer noch ein großes Publikum finden, stattdessen auf Plattformen wie Rumble; Die meisten jungen Menschen nutzen mittlerweile TikTok, eine Plattform, die es kaum gab, als wir anfingen, über die Auswirkungen von Social Media zu sprechen. Sobald wir anfangen, ein Rätsel darüber zu lösen, wie das Internet uns beeinflusst, tritt ein anderes an seine Stelle.

source site

Leave a Reply