Facebook und Instagram wendeten „aggressive Taktiken“ an, die auf Kinder abzielten, Klageansprüche

Meta hat wissentlich „aggressive Taktiken“ angewendet, bei denen es darum ging, Kinder „im Namen des Wachstums“ von sozialen Medien abhängig zu machen, wie aus einer Klage gegen Meta hervorgeht, in der behauptet wird, Kinder hätten durch Facebook und Instagram gelitten

Ein Software-Ingenieur von Meta behauptete, dass „es kein Geheimnis ist“, wie Facebook und Instagram akribische Algorithmen verwendet haben, um die wiederholte und zwanghafte Nutzung unter Minderjährigen zu fördern, unabhängig davon, ob der Inhalt schädlich war – und war „ziemlich kompromisslos“.

Die redigierten Enthüllungen wurden in einer Klage gegen Meta offengelegt, die von DailyMail.com entsiegelt und eingesehen wurde.

Obwohl CEO March Zuckerberg öffentlich behauptet, dass sein Unternehmen Profit über Sicherheit stellt und das Wohlbefinden einfach „nicht wahr“ ist, zeigen die Akten die sexuelle Ausbeutung von Kindern auf beiden Plattformen und behaupten, „Metas engagementbasierter Algorithmus habe extreme Inhalte ausgenutzt, um mehr Engagement zu fördern“. das Dokument lautet.

Das Dokument besagt, dass 20 Prozent der neun- bis 13-jährigen Nutzer auf Facebook und Instagram eine sexuelle Erfahrung mit einem Erwachsenen auf den Seiten hatten.

Und das trotz Metas „Null-Toleranz-Politik, die Missbrauch wie die Ausbeutung von Kindern verbietet“.

DailyMail.com hat eine nicht redigierte Version einer Klage gegen Meta erhalten, die von Eltern eingereicht wurde, die behaupten, dass Kinder durch seine Plattformen gelitten haben

DailyMail.com hat Meta kontaktiert, die sich nicht zu bestimmten Fragen geäußert hat.

Ein Sprecher des vom Gericht bestellten Hauptklägervertreters sagte gegenüber DailyMail.com: „Diese nie zuvor gesehenen Dokumente zeigen, dass Social-Media-Unternehmen die Krise der psychischen Gesundheit von Jugendlichen eher als PR-Angelegenheit denn als dringendes gesellschaftliches Problem behandeln durch ihre Produkte.

„Dazu gehören das Vergraben interner Forschungen, die diese Schäden dokumentieren, das Blockieren von Sicherheitsmaßnahmen, weil sie das ‚Engagement‘ verringern, und die Definanzierung von Teams, die sich auf den Schutz der psychischen Gesundheit von Jugendlichen konzentrieren.“

Die am 14. Februar in Kalifornien eingereichte Klage zitiert, dass mehr als ein Drittel der 13- bis 17-jährigen Kinder angeben, eine der Apps der Angeklagten „fast ständig“ zu verwenden, und zugeben, dass dies „zu viel“ sei, behaupten die beteiligten Eltern die Klage.

Die Beschwerden, die später in mehreren Sammelklagen zusammengefasst wurden, behaupteten, dass die Social-Media-Plattformen von Meta so konzipiert seien, dass sie gefährlich süchtig machen und Kinder und Jugendliche dazu bringen, Inhalte zu konsumieren, die das Risiko von Schlafstörungen, Essstörungen, Depressionen und Selbstmord erhöhen.

Der Fall besagt auch, dass Teenager und Kinder anfälliger für die negativen Auswirkungen von Social Media sind.

Die nicht redigierte Version wurde am 10. März veröffentlicht.

Darin heißt es, dass Thorn, eine internationale Organisation zur Bekämpfung des Menschenhandels, im Jahr 2021 einen Bericht veröffentlichte, in dem Probleme der sexuellen Ausbeutung auf Facebook und Instagram detailliert beschrieben und „Meta diese Erkenntnisse zur Verfügung gestellt wurden“.

Thorns Bericht zeigt „weder Sperren noch Melden“. [offenders] schützt Minderjährige vor fortgesetzter Belästigung“ und 55 Prozent der Teilnehmer des Berichts, die jemanden blockiert oder gemeldet haben, gaben an, online erneut kontaktiert worden zu sein.

Und jüngere Jungen sind besonders gefährdet durch Raubtiere.

Die unversiegelte Beschwerde behauptet auch, dass 80 Prozent der „Verstöße gegen Verbindungen zu Erwachsenen/Minderjährigen“ auf Facebook auf die Funktion „People You May Know“ der Plattform zurückzuführen seien.

.  Die Akten behaupten, das Unternehmen sei sich der sexuellen Ausbeutung von Kindern auf Facebook und Instagram bewusst und behauptet, „Metas engagementbasierter Algorithmus habe extreme Inhalte ausgenutzt, um mehr Engagement zu fördern“.

. Die Akten behaupten, das Unternehmen sei sich der sexuellen Ausbeutung von Kindern auf Facebook und Instagram bewusst und behauptet, „Metas engagementbasierter Algorithmus habe extreme Inhalte ausgenutzt, um mehr Engagement zu fördern“.

„Eine interne Studie, die im oder um den Juni 2020 herum durchgeführt wurde, kam zu dem Schluss, dass 500.000 minderjährige Instagram-Konten täglich „IIC“ erhalten – was für „unangemessene Interaktionen mit Kindern“ steht“, heißt es in einer redigierten Erklärung auf den Seiten 135 und 136 des Dokuments .

‘Doch zu der Zeit, ‘Child Safety [was] ausdrücklich als Nichtziel bezeichnet. . . . Also, wenn wir hier etwas machen, cool. Aber wenn wir gar nichts tun können, ist das auch in Ordnung.“

Meta hat seitdem seine Fähigkeit verbessert, unangemessene Interaktionen zwischen Erwachsenen und Jugendlichen zu verringern.

Das Unternehmen hat eine Technologie entwickelt, die es ihm ermöglicht, Konten zu finden, die potenziell verdächtiges Verhalten gezeigt haben, und diese Konten daran zu hindern, mit den Konten junger Menschen zu interagieren.

Und Meta behauptet, dass es diesen Erwachsenen die Konten junger Menschen nicht zeigt, wenn sie durch die Liste der Personen scrollen, denen ein Beitrag gefallen hat, oder wenn sie sich die Follower- oder Follower-Liste eines Kontos ansehen.

Diese Änderungen wurden jedoch nach 2020 vorgenommen.

In der Beschwerde heißt es auch, dass Meta bereits im Juli 2020 erwogen hatte, die Profile von jugendlichen Benutzern „standardmäßig privat“ zu machen, sich aber gegen den Schritt entschieden hatte, nachdem sie „Sicherheit, Datenschutz und Richtliniengewinne“ gegen „Wachstumsauswirkungen“ ausgespielt hatte.

Auf Seite 135 der Klage wird in einem redigierten Teil behauptet, Meta sei sich bewusst gewesen, dass es Apple so sauer macht, dass Erwachsenen erlaubt wird, Kinder auf Instagram zu kontaktieren, dass es droht, uns aus dem App Store zu entfernen. Das Unternehmen habe keinen Zeitplan dafür gehabt. wenn wir verhindern, dass Erwachsene Minderjährige in IG Direct benachrichtigen.

‘Das galt auch, nachdem Meta Berichte erhalten hatte, dass ein 12-jähriger Minderjähriger auf seiner Plattform angefragt’ wurde [the] Tochter von [an] Apple Security Exec“, so die Erklärung weiter.

Meta ist jedoch dazu übergegangen, Teenager-Benutzerkonten im November 2022 standardmäßig privat zu machen.

Ein Meta-Sprecher sagte gegenüber DailyMail.com: „Die Behauptung, wir hätten Arbeit defundiert, um das Wohlergehen der Menschen zu unterstützen, ist falsch.“

Die redigierte Version der Beschwerde lautet: „Statt“ zu nehmen [this] ernsthaft“ und „neue Tools einführen“, um Kinder zu schützen, tat Meta das Gegenteil.

„Ende 2019 hörte Metas ‚Team für psychische Gesundheit auf, Dinge zu tun‘, ‚es wurde defundiert‘ und ‚vollständig eingestellt‘. Und wie bereits erwähnt, erlaubte Meta, dass Sicherheitswerkzeuge, von denen sie wusste, dass sie kaputt waren, als Reparaturen hingehalten wurden.’

Ein Meta-Sprecher sagte gegenüber DailyMail.com, weil dies eine der obersten Prioritäten für das Unternehmen ist, „haben wir tatsächlich die Finanzierung erhöht, wie die über 30 Tools zeigen, die wir anbieten, um Teenager und Familien zu unterstützen. Heute arbeiten Hunderte von Mitarbeitern im gesamten Unternehmen daran, entsprechende Funktionen zu entwickeln“, sagte er.

Andere „schockierende“ Informationen in der unversiegelten Beschwerde berichten über die Existenz von Metas „Kaninchenlochprojekt“.

Ein Meta-Sprecher sagte gegenüber DailyMail.com, dass das Kaninchenbau-Projekt nicht existiert.

„Jemand, der sich schlecht fühlt, sieht Inhalte, die ihm ein schlechtes Gefühl geben, er beschäftigt sich damit, und dann wird seine IG mit w überflutet[ith] it“, heißt es in der nicht redigierten Version.

„Meta erkennt an, dass Instagram-Nutzer, die einem Suizid- oder Selbstverletzungsrisiko ausgesetzt sind, mit größerer Wahrscheinlichkeit „schädlicheren Suizid- und Selbstverletzungsinhalten begegnen (durch Erkundungs-, verwandte, Follower-Vorschläge).“

Das Dokument zitiert Molly Russel, eine Teenagerin aus London, die 2017 durch Selbstmord starb.

„Meta hatte interne Recherchen durchgeführt, die davor warnten, dass die Gefahr von „ähnlichen Vorfällen wie Molly Russell“ bestehe, weil algorithmische Produktfunktionen „[l]Benutzer zu beunruhigenden Inhalten führen“, heißt es auf Seite 84 des Dokuments.

“Unsere Empfehlungsalgorithmen werden Sie in ein Kaninchenloch mit ungeheuerlichem Inhalt drängen.”

„Sie waren sich über mögliche Lösungen im Klaren: Gezielte Änderungen am Algorithmus führen zu einer ‚bedeutsamen Verringerung der Exposition‘ gegenüber problematischen Inhalten.

„Aber sie haben sich gegen Änderungen gewehrt, aus dem ausdrücklichen, gewinnorientierten Grund, dass solche Optimierungen „eindeutig mit Kosten für das Engagement verbunden waren“.

Die Klage behauptet, dass Metas ständige Haltung zur Bedeutung der Kindersicherheit nie ernsthaft und nur „alles Theater“ war.

‘Unsere derzeit angezeigten Daten sind falsch. . . . Wir teilen schlechte Messwerte extern. . . wir bürgen für diese Zahlen“, so ein Mitarbeiter, wie im Dokument gezeigt.

source site

Leave a Reply