Frances Haugen hält die Algorithmen von Facebook für gefährlich. Hier ist der Grund.

In ihrer Aussage betonte Haugen auch immer wieder, dass diese Phänomene in Regionen, die kein Englisch sprechen, aufgrund der ungleichmäßigen Abdeckung verschiedener Sprachen durch Facebook weitaus schlimmer seien.

„Im Falle Äthiopiens gibt es 100 Millionen Menschen und sechs Sprachen. Facebook unterstützt nur zwei dieser Sprachen für Integritätssysteme“, sagte sie. „Diese Strategie, uns auf sprachspezifische, inhaltsspezifische Systeme für KI zu konzentrieren, um uns zu retten, ist zum Scheitern verurteilt.“

Sie fuhr fort: „Also in nicht inhaltsbasierte Wege zu investieren, um die Plattform zu verlangsamen, schützt nicht nur unsere Meinungsfreiheit, sondern schützt auch das Leben der Menschen.“

Ich erforsche dies in einem anderen Artikel von Anfang dieses Jahres über die Einschränkungen großer Sprachmodelle oder LLMs:

Obwohl LLMs diese sprachlichen Mängel aufweisen, verlässt sich Facebook stark auf sie, um seine Inhaltsmoderation weltweit zu automatisieren. Als der Krieg in Tigray[, Ethiopia] erstmals im November ausgebrochen, [AI ethics researcher Timnit] Gebru sah, wie die Plattform flunderte, um die Flut an Fehlinformationen in den Griff zu bekommen. Dies ist sinnbildlich für ein anhaltendes Muster, das Forscher bei der Moderation von Inhalten beobachtet haben. Gemeinschaften, die Sprachen sprechen, die vom Silicon Valley nicht priorisiert werden, leiden unter den feindlichsten digitalen Umgebungen.

Gebru bemerkte, dass der Schaden auch hier nicht endet. Wenn Fake News, Hassreden und sogar Morddrohungen nicht abgewehrt werden, werden sie als Trainingsdaten verwendet, um die nächste Generation von LLMs aufzubauen. Und diese Modelle, die das, woran sie trainiert wurden, nachplappern, würgen am Ende diese giftigen Sprachmuster im Internet wieder hoch.

Wie hängt das Content-Ranking von Facebook mit der psychischen Gesundheit von Teenagern zusammen?

Eine der schockierendsten Enthüllungen aus den Facebook-Dateien des Journals war die interne Untersuchung von Instagram, die ergab, dass die Plattform die psychische Gesundheit von Mädchen im Teenageralter verschlechtert. „32 Prozent der Teenager-Mädchen gaben an, dass sie sich bei Instagram schlechter fühlten, wenn sie sich schlecht fühlten“, schrieben Forscher in einer Präsentation vom März 2020.

Haugen verbindet dieses Phänomen auch mit Engagement-basierten Ranking-Systemen, von denen sie heute vor dem Senat sagte, dass „Teenager mehr Anorexie-Inhalten ausgesetzt sind“.

„Wenn Instagram eine so positive Kraft ist, haben wir in den letzten 10 Jahren ein goldenes Zeitalter der psychischen Gesundheit von Teenagern erlebt? Nein, wir haben steigende Selbstmord- und Depressionsraten bei Teenagern beobachtet“, fuhr sie fort. “Es gibt eine breite Palette von Forschungen, die die Idee unterstützen, dass die Nutzung von Social Media das Risiko dieser psychischen Gesundheitsschäden verstärkt.”

In meiner eigenen Berichterstattung habe ich von einem ehemaligen KI-Forscher gehört, der diesen Effekt auch auf Facebook übertragen sah.

Das Forscherteam stellte fest, dass Nutzer, die dazu neigen, melancholische Inhalte zu posten oder sich mit ihnen zu beschäftigen – ein mögliches Anzeichen für Depressionen – leicht dazu neigen könnten, zunehmend negatives Material zu konsumieren, das ihre psychische Gesundheit weiter verschlechtern könnte.

Aber wie bei Haugen stellte der Forscher fest, dass die Führung nicht daran interessiert war, grundlegende algorithmische Änderungen vorzunehmen.

Das Team schlug vor, die Content-Ranking-Modelle für diese Benutzer zu optimieren, um nicht mehr allein das Engagement zu maximieren, damit ihnen weniger deprimierendes Zeug gezeigt wird. „Die Frage für die Führung lautete: Sollten wir das Engagement optimieren, wenn Sie feststellen, dass sich jemand in einem verletzlichen Geisteszustand befindet?“ er erinnert sich.

Aber alles, was das Engagement reduzierte, selbst aus Gründen, um die Depression von jemandem nicht zu verschlimmern, führte zu viel Gedränge und Hetze unter der Führung. Mit ihren Leistungsbeurteilungen und Gehältern, die an den erfolgreichen Abschluss von Projekten gebunden waren, lernten die Mitarbeiter schnell, diejenigen, die einen Pushback erhielten, fallen zu lassen und an den von oben nach unten diktierten weiterzuarbeiten.

Der ehemalige Mitarbeiter lässt seiner Tochter mittlerweile Facebook nicht mehr zu.

Wie beheben wir das?

Haugen ist gegen die Auflösung von Facebook oder die Aufhebung von Abschnitt 230 des US-amerikanischen Communications Decency Act, der Technologieplattformen davor schützt, Verantwortung für die von ihnen verbreiteten Inhalte zu übernehmen.

Stattdessen empfiehlt sie, in Abschnitt 230 eine gezieltere Ausnahme für das algorithmische Ranking vorzunehmen, das ihrer Meinung nach „das auf Engagement basierende Ranking loswerden würde“. Sie plädiert auch für eine Rückkehr zum chronologischen Newsfeed von Facebook.

source site

Leave a Reply