Facebook kann Benutzer in das Kaninchenloch mit Impfstoff-Fehlinformationen führen – EURACTIV.com


Neue Forschungen zu Impfstoff-Fehlinformationen auf Facebook zeigen, dass der Inhaltsempfehlungsalgorithmus der Plattform Benutzer zu schädlichem verschwörerischem Material führen kann und nicht von ihm weg.

Die globale Interessenvertretung Avaaz führte eine Untersuchung durch, um den Algorithmus zu „stresstesten“, indem sie die Arten von Inhalten untersuchte, die neuen Benutzern empfohlen wurden, ohne in der Vergangenheit mit Anti-Impfstoff-Beiträgen zu interagieren.

Die Ergebnisse zeigen, dass es nicht lange dauerte, bis den Nutzern Seiten empfohlen wurden, die falsche Informationen über Impfstoffe verbreiteten, darunter einige, die bereits mit Warnungen vor schädlichen Inhalten versehen waren oder von prominenten Verschwörungstheoretikern der „Anti-Vax“-Verschwörung angeführt wurden.

Die Ergebnisse kommen zu einer Zeit, in der die Rolle von Online-Fehlinformationen bei der Abschreckung von Menschen von einer Impfung gegen COVID-19 verstärkt untersucht wird. Letzte Woche sagte US-Präsident Joe Biden Reportern, dass Plattformen wie Facebook Facebook “Menschen töten” durch das Hosten solcher Fehlinformationen.

Die algorithmische Transparenz war ein Schwerpunkt der jüngsten EU-Regulierungsmaßnahmen, wobei Bestimmungen sowohl in den jüngsten Leitlinien der Kommission zum Verhaltenskodex für Desinformation als auch im bevorstehenden Gesetz über digitale Dienste (DSA) enthalten sind.

Die Ermittlung

Im Rahmen der Untersuchung nutzte Avaaz zwei Testkonten, um Seiten mit Anti-Impfstoff-Inhalten zu liken und dann die von Facebook empfohlenen Folgeseiten zu verfolgen.

In den zwei Tagen, an denen der Test durchgeführt wurde, enthielten 109 der insgesamt 180 Seiten, die den Forschern empfohlen wurden, Anti-Impfstoff-Inhalte, was darauf hindeutet, dass der Algorithmus der Plattform wenig dazu beiträgt, Menschen von schädlichen oder irreführenden Inhalten dieser Art abzulenken.

Die Forscher fanden auch heraus, dass das Betrachten von Inhalten zu Impfstoffen zur Empfehlung von Seiten über Autismus führte, auch wenn diese Seiten keine Informationen zum Impfstoff enthielten.

Laut Avaaz deutet dies darauf hin, dass der Algorithmus von Facebook möglicherweise den weithin entlarvten Mythos einer Verbindung zwischen Impfstoffen und Autismus verinnerlicht hat und dass dies als “eine Form der Fehlinformation an sich” angesehen werden könnte.

Designwahl

Die Ergebnisse deuten darauf hin, dass der Empfehlungsalgorithmus von Facebook dazu dienen kann, Benutzer weiter in Netzwerke von Impfstoff-Fehlinformationen zu drängen, anstatt ihnen einen Ausweg zu bieten oder sie auf legitimere Informationsquellen zu lenken. Dies ist laut Avaaz eine „Design-Wahl“ seitens der Plattform.

Im September letzten Jahres, so der Bericht, kündigte Facebook an, Nutzern keine gesundheitsbezogenen Gruppen mehr zu empfehlen, um „die Verbindung von Menschen mit genauen Gesundheitsinformationen zu priorisieren“. Ähnliche Maßnahmen wurden jedoch in Bezug auf Seiten mit gesundheitsbezogenen Inhalten nicht ergriffen.

Nate Miller, Campaign Director bei Avaaz, sagte gegenüber EURACTIV, dass dies eine „eklatante Inkonsistenz“ in der Facebook-Richtlinie sei und dass „die bestehenden Richtlinien bei Facebook in Bezug auf Fehlinformationen im Allgemeinen und COVID-bezogene Fehlinformationen im Besonderen gleichzeitig unzureichend durchgesetzt und nicht geeignet sind für die Aufgabe.”

Facebook war nicht sofort für eine Stellungnahme erreichbar.

Transparenzmaßnahmen

Bei der Bekämpfung der Verbreitung von Fehlinformationen im Internet ist die Geheimhaltung der Plattformen rund um ihre algorithmische Architektur eine zentrale Herausforderung, ebenso wie der Mangel an Daten, die von Unternehmen bereitgestellt werden, um zu beweisen, dass sie angemessene Schritte unternehmen, um Probleme wie Desinformation, Luca Nicotra, Campaign Director bei Avaaz, sagte gegenüber EURACTIV.

„Sie sagen, dass sie ihre Plattformen aufräumen, aber dann veröffentlichen sie keine aussagekräftigen Daten, die es uns dann ermöglichen würden, ihre Behauptungen tatsächlich zu validieren“, sagte er.

Anfang 2021 hat die Europäische Kommission ihre Leitlinien zur Stärkung des Verhaltenskodex 2018 zur Desinformation veröffentlicht, einer Reihe von Selbstregulierungsstandards, auf die sich die großen Technologieplattformen geeinigt haben, um das Problem der Online-Desinformation anzugehen. Der Kodex ist zwar nicht rechtsverbindlich, seine Maßnahmen werden es jedoch wahrscheinlich werden, sobald das DSA Gesetz wird.

Kommission setzt Messlatte für Anti-Desinformationsmaßnahmen

Der frisch veröffentlichte Leitfaden zur Stärkung des Verhaltenskodex für Desinformation veranschaulicht die Erwartungen der Europäischen Kommission an die Anti-Desinformationsmaßnahmen für Online-Plattformen. Der Kodex ist zwar nicht bindend, die Maßnahmen werden jedoch voraussichtlich nach der Verabschiedung des Digital Services Act (DSA) verbindlich.

Sowohl der Code als auch das DSA konzentrieren sich auf die algorithmische Transparenz, die laut Avaaz entscheidend sein wird, um die Auswirkungen zu verstehen und den potenziellen Schaden zu reduzieren, der durch Fehlinformationen auf Online-Plattformen verursacht wird.

Zu den vorgeschlagenen Maßnahmen gehören Bestimmungen, die von Plattformen verlangen würden, zu zeigen, wie sie ihre Algorithmen geändert haben, um der Verbreitung von Desinformation entgegenzuwirken.

[Edited by Josie Le Blond/Luca Bertuzzi]





Source link

Leave a Reply