Laut Mozilla reagiert der Empfehlungsalgorithmus von YouTube nicht auf Benutzerfeedback

Mozilla-Forscher analysierten sieben Monate YouTube-Aktivitäten von über 20.000 Teilnehmern, um vier Möglichkeiten zu bewerten, wie YouTube sagt, dass die Leute „ihre Empfehlungen abstimmen“ können – Schlagen Nicht gefallen, Nicht interessiert, Aus der Geschichte löschenoder Empfehle diesen Kanal nicht. Sie wollten sehen, wie effektiv diese Kontrollen wirklich sind.

Jeder Teilnehmer installierte eine Browsererweiterung, die a hinzufügte Hör auf zu empfehlen Schaltfläche oben in jedem YouTube-Video, das sie gesehen haben, sowie in der Seitenleiste. Das Drücken löste jedes Mal eine der vier Algorithmus-Tuning-Antworten aus.

Dutzende von Forschungsassistenten haben dann diese abgelehnten Videos beäugt, um zu sehen, wie sehr sie Zehntausenden von nachfolgenden Empfehlungen von YouTube an dieselben Benutzer ähneln. Sie fanden heraus, dass die Kontrollen von YouTube einen „vernachlässigbaren“ Einfluss auf die Empfehlungen haben, die die Teilnehmer erhalten. In den sieben Monaten hat ein abgelehntes Video im Durchschnitt etwa 115 schlechte Empfehlungen hervorgebracht – Videos, die denen sehr ähnlich waren, die die Teilnehmer YouTube bereits mitgeteilt hatten, dass sie sie nicht sehen wollten.

Frühere Untersuchungen haben gezeigt, dass die Praxis von YouTube, Videos zu empfehlen, denen Sie wahrscheinlich zustimmen, und kontroverse Inhalte zu belohnen, die Ansichten der Menschen verhärten und sie zu einer politischen Radikalisierung führen kann. Die Plattform ist auch wiederholt unter Beschuss geraten, weil sie sexuell explizite oder anzügliche Videos von Kindern beworben und Inhalte, die gegen ihre eigenen Richtlinien verstoßen, zur Viralität gebracht hat. Nach einer Überprüfung hat sich YouTube verpflichtet, gegen Hassreden vorzugehen, seine Richtlinien besser durchzusetzen und seinen Empfehlungsalgorithmus nicht zu verwenden, um „grenzwertige“ Inhalte zu fördern.

Die Studie ergab jedoch, dass Inhalte, die scheinbar gegen die eigenen Richtlinien von YouTube verstoßen, den Nutzern immer noch aktiv empfohlen wurden, selbst nachdem sie negatives Feedback gesendet hatten.

Schlagen Nicht gefallendie sichtbarste Möglichkeit, negatives Feedback zu geben, stoppt nur 12 % der schlechten Empfehlungen; Nicht interessiert stoppt nur 11%. YouTube bewirbt beide Optionen, um seinen Algorithmus zu optimieren.

Elena Hernandez, eine YouTube-Sprecherin, sagt: „Unsere Steuerelemente filtern nicht ganze Themen oder Standpunkte heraus, da dies negative Auswirkungen für die Zuschauer haben könnte, wie z. B. die Schaffung von Echokammern.“ Hernandez sagt auch, dass Mozillas Bericht nicht berücksichtigt, wie der Algorithmus von YouTube tatsächlich funktioniert. Aber das weiß niemand außerhalb von YouTube angesichts der Milliarden von Eingaben des Algorithmus und der begrenzten Transparenz des Unternehmens. Mozillas Studie versucht, einen Blick in diese Black Box zu werfen, um ihre Ergebnisse besser zu verstehen.

source site

Leave a Reply