Wie der Oberste Gerichtshof Ihr Online-Leben überarbeiten könnte

Jetzt stehen sie im Mittelpunkt eines wegweisenden Rechtsfalls, der letztendlich die Macht hat, unser Online-Leben komplett zu verändern. Am 21. Februar wird der Oberste Gerichtshof Argumente anhören Gonzalez gegen Google, in dem es um Vorwürfe geht, Google habe gegen das Anti-Terrorismus-Gesetz verstoßen, als die Empfehlungen von YouTube ISIS-Inhalte bewarben. Es ist das erste Mal, dass das Gericht eine gesetzliche Bestimmung namens Section 230 prüft.

Abschnitt 230 ist die rechtliche Grundlage, auf der jahrzehntelang alle großen Internetunternehmen mit nutzergenerierten Inhalten – Google, Facebook, Wikimedia, AOL, sogar Craigslist – ihre Richtlinien und oft auch ihre Geschäfte aufgebaut haben. Wie ich letzte Woche schrieb, hat es „soziale Plattformen lange vor Klagen wegen schädlicher nutzergenerierter Inhalte geschützt und ihnen gleichzeitig die Möglichkeit gegeben, Beiträge nach eigenem Ermessen zu entfernen“. (Zur Erinnerung: Die Präsidenten Trump und Biden haben beide gesagt, dass sie für die Abschaffung von Abschnitt 230 sind, der Plattformen ihrer Meinung nach zu viel Macht mit wenig Aufsicht verleiht; Technologieunternehmen und viele Befürworter der Meinungsfreiheit wollen ihn behalten.)

SCOTUS hat sich einer sehr spezifischen Frage gewidmet: Are Empfehlungen Inhaltlich gleich Anzeige von Inhalten, von denen letzterer weithin als von Abschnitt 230 abgedeckt anerkannt wird?

Der Einsatz könnte wirklich nicht höher sein. Wie ich geschrieben habe: “[I]Wenn Abschnitt 230 aufgehoben oder weitgehend neu ausgelegt wird, könnten diese Unternehmen gezwungen sein, ihren Ansatz zur Moderation von Inhalten zu ändern und dabei ihre Plattformarchitekturen zu überarbeiten.“

Ohne hier auf den ganzen Rechtsjargon einzugehen, ist es wichtig zu verstehen, dass es zwar plausibel erscheinen mag, zwischen Empfehlungsalgorithmen (insbesondere solchen, die Terroristen helfen) und der Anzeige und dem Hosting von Inhalten zu unterscheiden, technisch gesehen aber eine wirklich düstere Unterscheidung ist . Algorithmen, die nach Chronologie, Geographie oder anderen Kriterien sortieren, verwalten die Anzeige der meisten Inhalte auf irgendeine Weise, und Technologieunternehmen und einige Experten sagen, dass es nicht einfach ist, eine Grenze zwischen diesem und dem Algorithmus zu ziehen Verstärkungdie bestimmte Inhalte absichtlich fördert und schädliche Folgen haben kann (und einige auch nützliche).

Während sich meine Geschichte letzte Woche auf die Risiken beschränkte, die das Urteil für Online-Community-Moderationssysteme darstellt, einschließlich Funktionen wie der Reddit-Aufwertung, hatten Experten, mit denen ich gesprochen habe, eine Menge Bedenken. Viele von ihnen teilten die gleiche Sorge, dass SCOTUS keine technisch und sozial nuancierte Entscheidung mit Klarheit liefern wird.

„Dieser Oberste Gerichtshof gibt mir nicht viel Vertrauen“, sagte mir Eric Goldman, Professor und Dekan an der juristischen Fakultät der Santa Clara University. Goldman ist besorgt, dass das Urteil weitreichende unbeabsichtigte Folgen haben wird, und befürchtet das Risiko einer „Meinung, die ein Internet-Killer ist“.

Andererseits sagten mir einige Experten, dass die Schäden, die Algorithmen dem Einzelnen und der Gesellschaft zufügen, ein inakzeptables Ausmaß erreicht haben, und obwohl es idealer wäre, Algorithmen durch Gesetze zu regulieren, sollte SCOTUS diese Gelegenheit wirklich nutzen, um das Internetrecht zu ändern.

source site

Leave a Reply