Laut Studie fördert der YouTube-Algorithmus schädliche Inhalte – EURACTIV.com


Eine Crowdsourcing-Untersuchung hat den Empfehlungsalgorithmen von YouTube vorgeworfen, schädliche Inhalte zu fördern. Besonders betroffen waren Frankreich und Deutschland sowie andere nicht englischsprachige Länder.

Die Studie wurde von Mozilla durchgeführt, dessen Hauptprodukt Firefox ist, ein Webbrowser, der direkt mit Google Chrome konkurriert. Google ist auch die Muttergesellschaft von YouTube.

„YouTube muss zugeben, dass sein Algorithmus so konzipiert ist, dass er Menschen schädigt und falsch informiert. Unsere Untersuchungen bestätigen, dass YouTube nicht nur Videos hostet, sondern auch aktiv empfiehlt, die gegen seine eigenen Richtlinien verstoßen“, sagte Brandi Geurkink, Mozillas Senior Manager of Advocacy.

YouTube ist mit 2,3 Milliarden Nutzern pro Monat im Jahr 2020 die am zweithäufigsten besuchte Website der Welt. Die Anzahl der Wiedergabestunden hat sich zwischen 2012 und 2017 verzehnfacht und erreichte eine Milliarde Stunden pro Tag. Das lag vor allem am Algorithmus der Plattform, der ihre Videovorschläge personalisiert. YouTube schätzte, dass 70 % der Zeit, die Nutzer auf der Plattform verbrachten, auf diesem Empfehlungssystem beruhten.

Das System studieren

Das wichtigste Ergebnis des Mozilla-Berichts ist, dass „der Algorithmus das Problem ist“. 71 % der als schädlicher Inhalt gemeldeten Videos wurden automatisch von der Plattform empfohlen. Auch empfohlene Videos wurden mit einer um 40 % höheren Wahrscheinlichkeit als schädlich gemeldet.

Die wichtigsten identifizierten schädlichen Inhalte waren Videos mit Desinformation, Gewalt, Hassreden oder Betrug. Die Studie fordert auch Transparenz, wie das System entscheidet, welche Videos empfohlen werden, da in mehreren Fällen kein direkter Zusammenhang zwischen dem angesehenen Video und den vorgeschlagenen Videos bestand.

„Wir arbeiten ständig daran, das Erlebnis auf YouTube zu verbessern und haben allein im vergangenen Jahr über 30 verschiedene Änderungen eingeführt, um Empfehlungen zu schädlichen Inhalten zu reduzieren. Dank dieser Änderung liegt der Konsum von grenzwertigen Inhalten, die aus unseren Empfehlungen stammen, jetzt deutlich unter 1 %“, sagte ein YouTube-Sprecher gegenüber EURACTIV.

YouTube begrüßte weitere Untersuchungen zur Funktionsweise seines Systems und forderte Mozilla auf, den vollständigen Datensatz freizugeben. Die Video-Sharing-Plattform schätzt, dass derzeit weniger als 0,2% der Inhalte gegen ihre Community-Richtlinien verstoßen, eine Fehlerquote, die sich in den letzten Jahren dank maschinellem Lernen deutlich verringert hat.

Abschwächung negativer Trends

Die Anzahl der schädlichen Videos ist jedoch möglicherweise weniger relevant als ihre Reichweite. Die Studie behauptet, dass schädliche Inhalte im Durchschnitt 70 % mehr Aufrufe pro Tag anziehen als andere Videos.

Die Haupteinnahmequelle von YouTube ist Werbung, die darauf basiert, wie viel Zeit die Nutzer auf der Plattform verbringen. Ohne Häkchen schlägt der Algorithmus natürlich trendige Inhalte vor, unabhängig davon, ob diese schädlich sind oder nicht.

Laut YouTube haben die Änderungen, die die Plattform an ihren Empfehlungssystemen vornimmt, die Wiedergabezeit von „grenzwertigen“ Inhalten seit 2019 drastisch verkürzt. Die Plattform hat auch eine menschliche Aufsicht aufgenommen, um zu beurteilen, was schädliche Inhalte sind.

Dennoch waren möglicherweise nicht alle Länder gleichermaßen von diesen Verbesserungen betroffen. „Wir wissen jetzt auch, dass Menschen in nicht englischsprachigen Ländern am ehesten die Hauptlast des außer Kontrolle geratenen Empfehlungsalgorithmus von YouTube tragen“, fügte Geurkink hinzu.

Die Studie ergab, dass der Anteil schädlicher Inhalte in nicht englischsprachigen Ländern im Durchschnitt 60 % höher war als in Ländern, in denen Englisch die Hauptsprache ist. Deutschland und Frankreich gehören zu den drei Ländern, in denen der Anteil der gemeldeten schädlichen Videos am höchsten war.

Kommission setzt Messlatte für Anti-Desinformationsmaßnahmen

Der frisch veröffentlichte Leitfaden zur Stärkung des Verhaltenskodex für Desinformation illustriert die Erwartungen der Europäischen Kommission an die Anti-Desinformationsmaßnahmen für Online-Plattformen. Der Kodex ist zwar nicht bindend, die Maßnahmen werden jedoch voraussichtlich nach der Verabschiedung des Digital Services Act (DSA) verbindlich.

Verantwortlichkeit des Algorithmus

Sollten die Ergebnisse des Berichts bestätigt werden, würde YouTube mit dem Verhaltenskodex für Desinformation, dem Selbstregulierungsrahmen der Europäischen Kommission zur Bekämpfung von Desinformation, in Konflikt geraten. Die Kommission hat kürzlich einen neuen Leitfaden für den Kodex veröffentlicht, in dem strengere Maßnahmen eingeführt werden, um Plattformen für ihre Empfehlungssysteme verantwortlich zu machen.

„Die Verpflichtungen sollten auch konkrete Maßnahmen umfassen, um die Risiken von Empfehlungssystemen zu mindern, die die virale Verbreitung von Desinformationen anheizen“, heißt es in der Leitlinie.

Die Kommission forderte die Plattformen außerdem auf, die Funktionsweise ihrer Algorithmen transparenter zu gestalten, und forderte sie auf, die Methodik ihrer Empfehlungssysteme zu veröffentlichen. Der aktualisierte Verhaltenskodex soll bis Anfang 2022 fertiggestellt sein.

Die Frage der Rechenschaftspflicht von Algorithmen wurde auch im Zusammenhang mit dem Digital Services Act (DSA) angesprochen, einem wichtigen Gesetzesvorschlag, der die Moderation von Inhalten definieren soll. Christel Schaldemose, Verhandlungsführerin im Parlament, schlug vor, Empfehlungssysteme standardmäßig abzuschalten und Plattformen für Grundrechtsverletzungen durch ihre Algorithmen zur Rechenschaft zu ziehen.

Machen Sie Online-Plattformen für ihre Algorithmen verantwortlich, sagt der führende Abgeordnete

Der EU-Gesetzgeber wird darüber streiten, ob Online-Plattformen verpflichtet werden sollen, ihre Algorithmen einer Kontrolle zu öffnen und sie für Grundrechtsverletzungen zur Rechenschaft zu ziehen, nachdem das Europäische Parlament seine ersten Überarbeitungen des geplanten Gesetzes über digitale Dienste veröffentlicht hat. Der neue Entwurf enthält auch stärkere Opt-in- und Durchsetzungsmaßnahmen.

[Edited by Benjamin Fox]





Source link

Leave a Reply