Wir sollten bei der Reform des Empfehlungssystems für soziale Medien nicht an Schwung verlieren – Euractiv

Angesichts der bevorstehenden EU-Wahlen im Jahr 2024 ist die Reform der Social-Media-Empfehlungssysteme von entscheidender Bedeutung, um den demokratischen Diskurs und die Zukunft der Demokratie zu schützen, schreiben Jan Nicola Beyer und Sofia Calabrese.

Jan Nicola Beyer ist Forschungskoordinator für digitale Demokratie bei Democracy Reporting International. Sofia Calabrese ist Digitalpolitikmanagerin bei der Europäischen Partnerschaft für Demokratie.

Im Jahr 2023 steht der Boom der generativen KI im Mittelpunkt der technologiepolitischen Diskussion und hat ein anderes kritisches KI-Thema weit in den Schatten gestellt: die dringende Notwendigkeit, die Empfehlungssysteme der sozialen Medien zu reformieren.

Dies ist keine Überraschung, da das Interesse der politischen Entscheidungsträger an dem Thema nach einem Moment des höchsten Interesses im Jahr 2021, nachdem interne Dokumente von Meta durchgesickert waren, zunehmend nachgelassen hat.

Während sich die halbe Welt auf die Wahlen im Jahr 2024 vorbereitet, wird die Behebung der Mängel dieser Algorithmen für die Sicherung des demokratischen Diskurses und der Zukunft der Demokratie jedoch noch wichtiger.

Die Reformierung von Empfehlungssystemen kann daher nicht allein den großen Social-Media-Plattformen überlassen werden, sondern sollte eine gründlichere Prüfung durch ein breites Spektrum von Interessengruppen, einschließlich politischer Entscheidungsträger, erfordern.

Im Jahr 2021 machte Francis Haugen, ein ehemaliger Meta-Mitarbeiter, kritisch auf die undurchsichtigen Abläufe von Social-Media-Plattformen aufmerksam, insbesondere auf ihre auf Engagement basierenden Empfehlungssysteme.

Ihre durch interne Dokumente gestützten Enthüllungen deckten die schädlichen Auswirkungen dieser Algorithmen auf.

Bei der Auswahl dessen, was Benutzer in ihren Feeds sehen, priorisieren sie Inhalte, die das Benutzerengagement maximieren, was oft auf Kosten der Verschärfung psychischer Probleme geht, Spaltungen und Hassreden schürt, „Polarisierung durch Design“ fördert und „Filterblasen“ schafft, die die Aufmerksamkeit der Benutzer stärken -bestehende Überzeugungen, insbesondere bei Personen, die sich nicht für Politik interessieren.

Diese Systeme fördern auch unbeabsichtigt ein Umfeld, das für Fehl- und Desinformationen anfällig ist, wobei falsche Informationen wohl mehr Engagement hervorrufen und sich schneller und weiter verbreiten als echte Informationen. Trotz der anfänglichen breiten Diskussionen, die Haugens Erkenntnisse auslösten, hat die Intensität des Gesprächs inzwischen deutlich nachgelassen.

Auf rechtlicher Ebene wurden Anstrengungen unternommen, um diese Probleme anzugehen. Der Digital Services Act (DSA) der Europäischen Union bietet einen rechtlichen Rahmen zur Bekämpfung illegaler Inhalte und schreibt eine größere Transparenz bei der Gestaltung von Algorithmen vor.

Allerdings gewährleistet diese Verordnung möglicherweise nicht die vollständige Minderung aller oben genannten Risiken. Das umfassende Risikoverständnis der DSA, das alles von der Verzerrung des Bürgerdialogs bis zur Gefährdung der öffentlichen Sicherheit umfasst, gibt Anlass zur Sorge hinsichtlich ihrer Wirksamkeit.

Darüber hinaus bleibt den Plattformen viel Ermessensspielraum, wenn es um die Risikoerkennung und -minderung geht, ohne Hinweise darauf, wie verschiedene Risiken bei der Anpassung des Designs von Empfehlungssystemen gegeneinander abgewogen werden können.

Es gibt zwar Alternativen zu auf Engagement basierenden Systemen, diese sind jedoch nicht ohne Herausforderungen. Einige Plattformen bieten beispielsweise chronologische Feeds als optionale Moderationsstrategie an, bei der Nutzer lediglich sehen, was zuletzt gepostet wurde.

Dieser Ansatz mildert zwar einige Vorurteile, die mit bindungsorientierten Modellen verbunden sind, bringt aber auch seine eigenen Komplikationen mit sich. Beispielsweise können chronologische Feeds zu überfüllten Zeitleisten führen und dazu führen, dass relevante Inhalte leicht übersehen werden.

Noch wichtiger ist, dass sie das Problem schädlicher Inhalte nicht wirksam angehen, da Benutzer möglicherweise immer noch auf Fehlinformationen oder anstößige Inhalte stoßen, die aufgrund ihrer Aktualität weiterhin sichtbar und weit verbreitet sind. In diesem Zusammenhang kann schon allein das häufige Posten dafür sorgen, dass Inhalte im Feed eines Benutzers hervorgehoben werden, was von böswilligen Akteuren ausgenutzt werden kann.

Forscher der Stanford University haben versucht, mit einem „demokratischen Einstellungsmodell“ Innovationen in Empfehlungssystemen einzuführen und dabei soziale Werte in das Algorithmusdesign einzubeziehen. Mithilfe von maschinellem Lernen haben sie eine Methode vorgeschlagen, die Inhalte, die antidemokratische Einstellungen fördern, identifiziert und diese herabsetzt (oder sogar löscht).

Allerdings ist dieser Ansatz nicht ohne Herausforderungen. Es besteht die Gefahr, dass solche Modelle Vorurteile von ihren Schöpfern erben, was zur Unterdrückung kritischer Stimmen unter dem Deckmantel der Aufrechterhaltung demokratischer Prinzipien führt. Darüber hinaus könnten solche Ansätze angesichts der Tatsache, dass Social-Media-Plattformen in unterschiedlichen kulturellen Kontexten agieren, eine „westliche Linse“ vermitteln.

Ein weiterer innovativer Ansatz ist das von Meta und X (früher bekannt als Twitter) getestete „Bridging-based Ranking“-System. Dieser Algorithmus fördert Inhalte, die bei unterschiedlichen Zielgruppen positive Reaktionen hervorrufen, und konzentriert sich dabei auf die demografische Resonanz und nicht auf vordefinierte Inhaltsthemen.

Während diese Methode darauf abzielt, Extremismus zu bekämpfen, könnte sie auch sozial innovative Ideen dämpfen, die zunächst extrem oder anstößig erscheinen. Denken Sie an die historische Entwicklung der LGBTQ+-Rechte und daran, wie diese zunächst auch als extrem wahrgenommen wurden.

Die entscheidende Frage ist, ob ein solches System unbeabsichtigt neue Ideen am Rande des demokratischen Diskurses unterdrücken und so die natürliche Entwicklung sozialer Innovation beeinträchtigen könnte.

Trotz ihrer inhärenten Einschränkungen könnten diese alternativen Algorithmen eine bedeutende Verbesserung gegenüber dem aktuellen Status quo darstellen. Sie könnten sogar erstrebenswerte Modelle bei unserem Streben nach besseren digitalen Ökosystemen sein.

Die Entscheidung, ein Modell einem anderen vorzuziehen, sollte jedoch nicht allein in den Händen der Führungskräfte großer Social-Media-Plattformen liegen, da selbst gut gemeinte Änderungen an Social-Media-Empfehlungssystemen zu unbeabsichtigten negativen Folgen für unsere Demokratie führen können.

Die potenziellen Auswirkungen dieser Algorithmen sind zu groß, als dass über die Gesundheit und Integrität unserer demokratischen Systeme in den Vorstandsetagen der Unternehmen entschieden werden könnte. Deshalb ist es für unsere demokratische Gesellschaft von entscheidender Bedeutung, eine gründliche Debatte darüber zu führen, welche Konsequenzen wir zu akzeptieren bereit sind.

Aus diesen Gründen erfordern entscheidende Entscheidungen zur Abwägung von Risiken und Vorteilen bei der Auswahl eines Empfehlungssystemmodells in naher Zukunft umfassendere, umfassendere Überlegungen der politischen Entscheidungsträger, die die vielfältigen Perspektiven und Interessen der breiteren Gesellschaft widerspiegeln, der sie dienen wollen.


source site

Leave a Reply