Wie der Tod von Taylor Force in Israel durch den Kampf um Online-Sprache widerhallt


WASHINGTON – Stuart Force sagt, er habe auf Facebook Trost gefunden, nachdem sein Sohn 2016 in Israel von einem Mitglied der militanten Gruppe Hamas erstochen worden war. Er wandte sich an die Website, um Hunderte von Beileidsbotschaften auf der Seite seines Sohnes zu lesen.

Aber nur wenige Monate später hatte Herr Force entschieden, dass Facebook teilweise für den Tod verantwortlich war, weil die Algorithmen, die das soziale Netzwerk antreiben, dazu beitrugen, die Inhalte der Hamas zu verbreiten. Er verklagte zusammen mit Verwandten anderer Terroropfer das Unternehmen und argumentierte, dass seine Algorithmen die Verbrechen unterstützten, indem sie regelmäßig Posten verstärkten, die zu Terroranschlägen ermutigten.

Der Rechtsstreit endete letztes Jahr erfolglos, als der Oberste Gerichtshof sich weigerte, ihn aufzunehmen. In Washington, wo einige Kongressmitglieder den Fall in einer intensiven Debatte über das Gesetz zitieren, das Technologieunternehmen vor der Haftung für von Benutzern veröffentlichte Inhalte schützt, haben sich die Argumente über die Leistungsfähigkeit der Algorithmen wiederholt.

Bei einer Anhörung des Repräsentantenhauses am Donnerstag über die Verbreitung von Fehlinformationen mit den Geschäftsführern von Facebook, Twitter und Google wird erwartet, dass sich einige Gesetzgeber darauf konzentrieren, wie die Algorithmen der Unternehmen geschrieben werden, um Einnahmen zu erzielen, indem sie Beiträge auftauchen, auf die Benutzer klicken und klicken Antworten auf. Und einige werden argumentieren, dass das Gesetz, das die sozialen Netzwerke vor Haftung schützt, Abschnitt 230 des Communications Decency Act, geändert werden sollte, um die Unternehmen zur Verantwortung zu ziehen, wenn ihre Software die Dienste von Plattformen zu Komplizen für offline begangene Verbrechen macht.

“Die letzten Jahre haben gezeigt, dass je mehr empörende und extremistische Inhalte Social-Media-Plattformen fördern, desto mehr Engagement und Werbedollar sie einbringen”, sagte der Vertreter Frank Pallone Jr., der Vorsitzende des Energie- und Handelsausschusses, der in Frage stellen wird die Geschäftsführer.

“Inzwischen ist schmerzlich klar, dass weder der Markt noch der öffentliche Druck Social-Media-Unternehmen davon abhalten werden, Desinformation und Extremismus zu verstärken. Wir haben also keine andere Wahl, als Gesetze zu erlassen, und jetzt ist es eine Frage, wie dies am besten zu tun ist”, so Pallone. ein Demokrat aus New Jersey, fügte hinzu.

Der frühere Präsident Donald J. Trump forderte die Aufhebung von Section 230, und Präsident Biden machte einen ähnlichen Kommentar, als er sich für das Weiße Haus einsetzte. Eine Aufhebung erscheint jedoch zunehmend zweifelhaft, da sich der Gesetzgeber auf kleinere mögliche Gesetzesänderungen konzentriert.

Eine Änderung des gesetzlichen Schutzschilds, um die Leistungsfähigkeit der Algorithmen zu berücksichtigen, könnte das Web neu gestalten, da algorithmische Sortierung, Empfehlung und Verteilung in den sozialen Medien üblich sind. Die Systeme entscheiden, welche Links zuerst im Newsfeed von Facebook angezeigt werden, welche Konten den Nutzern auf Instagram empfohlen werden und welches Video als nächstes auf YouTube abgespielt wird.

Die Industrie, Aktivisten für freie Meinungsäußerung und andere Befürworter des rechtlichen Schutzschilds argumentieren, dass die Algorithmen der sozialen Medien unabhängig von der Nachricht gleichermaßen auf Posts angewendet werden. Sie sagen, dass die Algorithmen nur aufgrund des von den Benutzern bereitgestellten Inhalts funktionieren und daher in Abschnitt 230 behandelt werden, der Websites schützt, auf denen Beiträge, Fotos und Videos von Personen gehostet werden.

Gerichte haben zugestimmt. Ein Bundesbezirksrichter sagte, selbst eine “großzügigste Lektüre” der von Herrn Force erhobenen Vorwürfe “ordne sie direkt in die Immunität ein”, die Plattformen nach dem Gesetz gewährt wird.

Ein Sprecher von Facebook lehnte es ab, sich zu dem Fall zu äußern, verwies jedoch auf Kommentare seines Vorstandsvorsitzenden Mark Zuckerberg, der einige Änderungen an Section 230 unterstützte. Elena Hernandez, eine Sprecherin von YouTube, die im Besitz von Google ist, sagte, der Dienst habe Änderungen an vorgenommen Die „Such- und Erkennungsalgorithmen zur Sicherstellung eines maßgeblicheren Inhalts werden in den Suchergebnissen und Empfehlungen deutlich hervorgehoben und gekennzeichnet.“

Twitter stellte fest, dass es vorgeschlagen hatte, den Benutzern mehr Auswahlmöglichkeiten für die Algorithmen zu geben, mit denen ihre Zeitleisten eingestuft wurden.

“Algorithmen sind grundlegende Bausteine ​​für Internetdienste, einschließlich Twitter”, sagte Lauren Culbertson, Leiterin der US-Politik bei Twitter. “Die Regulierung muss die Realität widerspiegeln, wie verschiedene Dienste funktionieren und Inhalte eingestuft und erweitert werden, während gleichzeitig der Wettbewerb maximiert und Sicherheit und freie Meinungsäußerung in Einklang gebracht werden müssen.”

Anerkennung…US Military Academy, über Associated Press

Der Fall von Mr. Force begann im März 2016, als sein Sohn Taylor Force (28) von Bashar Masalha getötet wurde, als er mit Klassenkameraden der Graduiertenschule in Jaffa, einer israelischen Hafenstadt, zum Abendessen ging. Die Hamas, eine palästinensische Gruppe, sagte, der 22-jährige Masalha sei Mitglied.

In den folgenden Monaten arbeiteten Stuart Force und seine Frau Robbi daran, das Anwesen ihres Sohnes zu besiedeln und seine Wohnung aufzuräumen. In diesem Sommer erhielten sie einen Anruf von einer israelischen Prozessgruppe, die eine Frage hatte: Wäre die Force-Familie bereit, Facebook zu verklagen?

Nachdem Herr Force einige Zeit auf einer Facebook-Seite der Hamas verbracht hatte, stimmte die Familie einer Klage zu. Die Klage passt zu einer breiteren Anstrengung der Streitkräfte, die den palästinensischen Gruppen zur Verfügung stehenden Ressourcen und Instrumente zu begrenzen. Mr. Force und seine Frau haben sich mit den Gesetzgebern in Washington verbündet, um Gesetze zur Beschränkung der Hilfe an die Palästinensische Autonomiebehörde zu verabschieden, die einen Teil der Westbank regiert.

Ihre Anwälte argumentierten vor einem amerikanischen Gericht, Facebook habe der Hamas “einen hochentwickelten und hoch entwickelten Algorithmus gegeben, der es der Hamas erleichtert, ein Publikum zu erreichen und einzubeziehen, das sie sonst nicht so effektiv erreichen könnte”. In der Klage hieß es, die Algorithmen von Facebook hätten nicht nur die Beiträge verstärkt, sondern auch die Hamas unterstützt, indem sie den Nutzern Gruppen, Freunde und Ereignisse empfohlen hätten.

Der Bundesbezirksrichter in New York entschied unter Berufung auf Section 230 gegen die Ansprüche. Die Anwälte der Force-Familie legten Berufung bei einem aus drei Richtern bestehenden Gremium des US-Berufungsgerichts für den zweiten Stromkreis ein, und zwei der Richter entschieden vollständig für Facebook. Der andere, Richter Robert Katzmann, schrieb einen 35-seitigen Dissens zu einem Teil des Urteils und argumentierte, dass die algorithmischen Empfehlungen von Facebook nicht durch den rechtlichen Schutz abgedeckt werden sollten.

“Immer mehr Beweise deuten darauf hin, dass Anbieter ihre Algorithmen so konzipiert haben, dass sie Benutzer zu Inhalten und Personen führen, mit denen die Benutzer einverstanden sind – und dass sie dies zu gut gemacht haben und anfällige Seelen immer weiter in dunkle Pfade treiben”, sagte er.

Ende letzten Jahres lehnte der Oberste Gerichtshof einen Anruf ab, um einen anderen Fall anzuhören, der den Schild des Abschnitts 230 geprüft hätte. In einer der Entscheidung des Gerichts beigefügten Erklärung forderte Justiz Clarence Thomas das Gericht auf, zu prüfen, ob der Schutz von Abschnitt 230 zu weit ausgedehnt worden war, und verwies dabei auf die Klage von Herrn Force und die Meinung von Richter Katzmann.

Richter Thomas sagte, das Gericht müsse im Moment nicht entscheiden, ob der rechtliche Schutz eingeschränkt werden soll. “Aber in einem geeigneten Fall müssen wir dies tun”, sagte er.

Einige Gesetzgeber, Anwälte und Wissenschaftler sagen, dass die Anerkennung der Macht der Algorithmen der sozialen Medien bei der Bestimmung dessen, was die Menschen sehen, längst überfällig ist. Die Plattformen zeigen normalerweise nicht genau an, welche Faktoren die Algorithmen verwenden, um Entscheidungen zu treffen, und wie sie gegeneinander abgewogen werden.

“Verstärkung und automatisierte Entscheidungsfindungssysteme schaffen Verbindungsmöglichkeiten, die sonst nicht möglich wären”, sagte Olivier Sylvain, Professor für Recht an der Fordham University, der das Argument im Zusammenhang mit Bürgerrechten vorgebracht hat. “Sie tragen wesentlich zum Inhalt bei.”

Dieses Argument ist in einer Reihe von Gerichtsverfahren aufgetaucht, in denen behauptet wird, Facebook sollte für die Diskriminierung im Wohnungsbau verantwortlich sein, wenn seine Plattform Werbung nach der Rasse eines Nutzers ausrichten könnte. Ein Gesetzesentwurf der Repräsentantin Yvette D. Clarke, Demokratin von New York, würde die Immunität von Section 230 von gezielten Anzeigen, die gegen das Bürgerrechtsgesetz verstoßen, aufheben.

Ein Gesetzesentwurf, den die beiden Demokraten Tom Malinowski aus New Jersey und Anna G. Eshoo aus Kalifornien im vergangenen Jahr vorlegten, würde den Schutz von Section 230 von Social-Media-Plattformen entfernen, wenn ihre Algorithmen Inhalte verstärkten, die gegen einige Antiterrorismus- und Bürgerrechtsgesetze verstießen. In der Pressemitteilung, in der die am Mittwoch wieder eingeführte Gesetzesvorlage angekündigt wurde, wurde die Klage der Force-Familie gegen Facebook zitiert. Herr Malinowski sagte, er sei teilweise von Richter Katzmanns Dissens inspiriert worden.

Kritiker der Gesetzgebung sagen, dass sie möglicherweise gegen die erste Änderung verstößt und, weil es so viele Algorithmen im Internet gibt, ein breiteres Spektrum von Dienstleistungen in Anspruch nehmen könnte, als der Gesetzgeber beabsichtigt. Sie sagen auch, dass es ein grundlegenderes Problem gibt: Die Regulierung der algorithmischen Verstärkung aus der Existenz heraus würde die Impulse, die sie antreiben, nicht beseitigen.

“Es gibt eine Sache, von der man nicht loskommen kann”, sagte Daphne Keller, Direktorin des Programms zur Plattformregulierung am Cyber ​​Policy Center der Stanford University.



Source link

Leave a Reply