Der Oberste Gerichtshof wird das Internet wahrscheinlich nicht brechen – zumindest vorerst

Diese Woche hörten die neun Richter des Obersten Gerichtshofs mündliche Verhandlungen in zwei Fällen, die das Internet verändern könnten. „Das sind nicht die neun größten Experten im Internet“, scherzte Richterin Elena Kagan am Dienstag und sorgte im Gerichtssaal für Gelächter. Nichtsdestotrotz befragten die Richter in fünfstündigen Auseinandersetzungen an zwei Tagen das Innenleben von Online-Plattformen. Der erste Fall, Gonzalez gegen Google, konzentriert sich auf die Empfehlungsalgorithmen, die Benutzer zu bestimmten Inhalten leiten. Ist es dasselbe, einen Artikel, ein Bild oder ein Video vorzuschlagen, wie es zu unterstützen? Das zweite, Twitter v. Taamneh, befasst sich mit der Frage, ob Plattformen für die Inhalte verantwortlich sind, die ihre Nutzer online teilen. Wenn die Antwort auf beide Fragen Ja lautet, dann müssten viele Technologieunternehmen grundlegend überarbeitet werden.

1996 verabschiedete der Kongress ein umfangreiches Telekommunikationsgesetz, das eine Bestimmung, Abschnitt 230 des Communications Decency Act, enthielt, die dazu führte, dass frühe Internetdienstanbieter – Unternehmen wie CompuServe und Prodigy – vor der gesetzlichen Haftung für die Handlungen der Benutzer geschützt wurden. „Kein Anbieter oder Benutzer eines interaktiven Computerdienstes darf als Herausgeber oder Sprecher von Informationen behandelt werden, die von einem anderen Anbieter von Informationsinhalten bereitgestellt werden“, heißt es auszugsweise in dem Abschnitt. Während traditionelle Verlage die rechtliche Verantwortung für das übernehmen, was sie veröffentlichen – sie können wegen Verleumdung verklagt werden, wenn sie wissentlich Unwahrheiten drucken –, hat Abschnitt 230 die Technologieunternehmen anders gestaltet. Es schützte sie vor zivilrechtlichen Ansprüchen wie Verleumdungsklagen und gewährte ihnen gleichzeitig die Freiheit, anstößige Inhalte zu moderieren. (Der vollständige Name des Abschnitts lautet „Schutz für das private Blockieren und Überprüfen von anstößigem Material“.) Bis heute werden Plattformen, einschließlich Facebook, Twitter, YouTube und TikTok, normalerweise nicht für Inhalte verantwortlich gemacht, die sie nicht direkt erstellt haben. Theoretisch könnten Gonzalez gegen Google und Twitter gegen Taamneh das ändern.

Wenn der Oberste Gerichtshof digitale Plattformen wie Publisher behandeln würde, müsste ein Unternehmen wie Facebook möglicherweise jeden Nutzerbeitrag, der mit einem Gesetz in Konflikt gerät, rechtlich verteidigen. Im Vorfeld der Anhörungen in dieser Woche befürchteten einige Beobachter, dass das konservativ orientierte Gericht diese Realität entfesseln könnte, indem es den Schutz von Section 230 vollständig aufhebt, wie Daphne Keller, Professorin an der Stanford Law School, sagte Der New Yorker, im Januar. Der Tenor der Fragen des Gerichts schien jedoch keine drastischen Gesetzesänderungen vorwegzunehmen, sondern spiegelte eine breitere öffentliche Auseinandersetzung mit den digitalen Technologien wider, die unser Leben zunehmend prägen. Das Gericht „scheint nach einem anspruchsvolleren Vokabular für die Funktionsweise von Plattformen und ihren Empfehlungsalgorithmen zu greifen“, sagte mir Tarleton Gillespie, Professor für digitale Medien an der Cornell University und leitender Forscher bei Microsoft Research.

Diese beiden Fälle versuchen, Plattformen auf unterschiedliche Weise zur Rechenschaft zu ziehen. Im November 2015 wurde ein amerikanischer Student namens Nohemi Gonzalez bei einem Terroranschlag in Paris getötet, der vom Islamischen Staat behauptet wurde. Die Familie von Gonzalez verklagte YouTube und dessen Muttergesellschaft Google wegen Empfehlung IS-Rekrutierungsvideos an Nutzer mit dem Argument, dass die Plattform dadurch den Terrorismus unterstützt und begünstigt habe. Laut dem Anwalt der Kläger, Eric Schnapper, sollte der Schutz von Abschnitt 230 nicht für die Art und Weise gelten, wie YouTube Nutzer zu bestimmten Videos weiterleitet, da die Empfehlung eines Inhalts gleichbedeutend mit der Veröffentlichung ist. Als Antwort darauf argumentierte Lisa S. Blatt, eine Anwältin für Google im Fall Gonzalez gegen Google, dass Abschnitt 230 „Websites vor der Veröffentlichung fremder Äußerungen schützen soll, selbst wenn sie absichtlich schädliche Äußerungen anderer Personen veröffentlichen“.

Heute sind Empfehlungsalgorithmen allgegenwärtig. „Jedes Mal, wenn sich jemand etwas im Internet ansieht, ist ein Algorithmus beteiligt“, sagte Richter Kagan am Dienstag. Aber Abschnitt 230 wurde zu einer Zeit geschrieben, als Websites relativ neu waren und algorithmengesteuerte digitale Plattformen wie YouTube noch nicht existierten. „Dies war ein Prä-Algorithmus-Statut“, sagte Kagan. “Jeder versucht sein Bestes, um herauszufinden, wie dieses Gesetz gilt.” Richter Clarence Thomas stellte Empfehlungen als neutral dar: Sie neigen dazu, Inhalte vorzuschlagen, an denen der Benutzer bereits interessiert ist, sei es Light Jazz, IS Videos oder Reispilaf-Rezepte, sagte er dem Gericht in einem der surrealsten Momente der Anhörung. „Ich verstehe nicht, wie ein neutraler Vorschlag zu etwas, an dem Sie Interesse bekundet haben, Beihilfe leisten soll“, sagte Thomas.

Richterin Sonia Sotomayor führte eine ähnliche Argumentation fort: Nur weil eine algorithmische Empfehlung einen Inhalt vorschlägt, heißt das noch lange nicht, dass die Plattform den Inhalt unterstützt. (Ihr Kommentar erinnerte an den alten Twitter-Disclaimer: „Retweets sind nicht gleich Empfehlungen.“) „Wie kommt man von einem neutralen Algorithmus zu einer Beihilfe?“ fragte Sotomayor Schnapper. “Hilfs- und Beihilfeabsicht muss vorhanden sein.”

Die Anhörung von Twitter gegen Taamneh am Mittwoch befasste sich mit einem weiteren Terroranschlag im Zusammenhang mit dem Islamischen Staat: einem in Istanbul im Jahr 2017. Die Familie eines der Opfer, eines Jordaniers namens Nawras Alassaf, verklagte Twitter, Google und Facebook eine kürzlich geänderte Bestimmung des Anti-Terror-Gesetzes, in der behauptet wird, dass sie sowohl Gastgeber als auch Empfehlung waren IS Inhalt für die Nutzer und damit Hilfestellung geleistet IS indem Sie helfen, den Angriff zu inspirieren. „Die Beihilfe muss nicht an eine bestimmte Tat gebunden sein“, argumentierte Schnapper, der wiederum die Kläger vertrat. Diesmal drängte Richter Thomas zurück, indem er über einen Präzedenzfall nachdachte, der geschaffen werden könnte: „Es scheint, dass jeder Terroranschlag, der diese Plattform nutzt, auch bedeuten würde, dass Twitter in diesen Fällen ein Helfer und Mittäter ist.“

Dennoch war es schwierig, den Anhörungen zuzuhören, ohne ein Gefühl dafür zu bekommen, dass große Technologieunternehmen mehr Verantwortung für ihre Inhalte übernehmen sollten. Während der Gonzalez-Anhörung fragte sich Kagan, warum digitale Plattformen einem einzigartigen Standard unterliegen. „Jede andere Branche muss die Kosten ihres Verhaltens internalisieren“, sagte sie. „Warum bekommt die Technologiebranche einen Pass? Ein bisschen unklar.“ Und während der Taamneh-Anhörung überlegte Kagan, ob Twitter einer Bank ähneln könnte, die wissentlich ihre Dienste Terroristen anbietet – was eindeutig illegal wäre. Wenn ja, sagte sie, dann könnte das Hosten und Empfehlen von Inhalten tatsächlich Beihilfe leisten.

Es gibt derzeit eine ungewöhnliche parteiübergreifende Unterstützung für eine stärkere Regulierung von Technologieunternehmen, aber das bedeutet nicht, dass das Gericht in diesen Fällen Abschnitt 230 anfechten wird. „Es scheint, als hätte das Gericht kein großes Interesse daran, diese Tatsachen, weder in Gonzalez noch in Taamneh, als Mittel für große Änderungen an der rechtlichen Kernstruktur von Internetplattformen zu verwenden“, sagt Nathaniel Persily, Professor an der Stanford Law School , erzählte mir. Gillespie von Cornell and Microsoft Research schlug vor, dass Empfehlungen allein das falsche Ziel rechtlicher Schritte sein könnten, da das Filtern von Inhalten ein fester Bestandteil jeder Plattform ist. „Jedes Gestaltungselement eines Informationsarchivs liefert einige Inhalte mehr als andere“, sagte er mir.

„Beide Fälle sind für die Kläger sehr schwer zu gewinnen“, fuhr Persily fort. “Die Frage ist: Wie verlieren sie?” Unter der Annahme, dass sich die Plattformen durchsetzen, sagte Persily, könnte die Argumentation des Gerichts ihren Schutz nach Abschnitt 230 immer noch auf kleinere Weise oder in bestimmten Fällen einschränken.

Es gibt andere Möglichkeiten, wie die US-Regierung Online-Plattformen einschränken könnte. Das Gericht könnte bald zwei weitere Fälle aufgreifen – NetChoice gegen Paxton und NetChoice gegen Moody –, die zu einer Neuinterpretation von Abschnitt 230 führen oder Big Tech anderweitig beeinflussen könnten, sagte Persily. In gewisser Weise sind diese Fälle das Gegenteil von denen gegen Google und Twitter. NetChoice ist ein Lobbying-Unternehmen der Technologiebranche, das die jüngsten Gesetze der Bundesstaaten Texas und Florida angefochten hat, die es sozialen Netzwerken verbieten, Konten aufgrund ihrer politischen Ansichten zu „zensieren“. (Das Gesetz von Florida verbietet auch „Shadow-Banning“, was ein abwertender Begriff dafür ist, wenn algorithmische Empfehlungen bestimmte Beiträge depriorisieren.) In diesen Fällen stützt sich NetChoice auf einen anderen Teil von Abschnitt 230: das Recht von Plattformen, Benutzer zu blockieren oder Bildschirminhalt. Die Branche sieht sich nun von beiden Seiten mit rechtlichem Druck konfrontiert: Einige wollen sie für die Veröffentlichung von Inhalten haftbar machen, während andere sie zwingen wollen, Inhalte aufrechtzuerhalten. „Die Haftungstheorien stehen in Spannung zueinander“, sagte mir Persily. “Du kannst es irgendwie nicht in beide Richtungen haben.”

Das Gericht könnte auch entscheiden, dass die Regulierung neuer Technologien Sache des Gesetzgebers ist, sei es in den Gesetzgebern der Bundesstaaten oder im Kongress. 2018 wurde der Kongress verabschiedet FOSTA Und SESTA, eine Gesetzgebung, die Abschnitt 230 in der Hoffnung änderte, Sexhandel zu verhindern. (Als Reaktion darauf hat Craigslist seinen Bereich mit Kontaktanzeigen eingestellt.) Persilys Arbeit informierte über einen kürzlichen Vorschlag zur Regulierung sozialer Medien, den Platform Transparency and Accountability Act, der 2021 im Senat eingeführt wurde. Andere beinhalten die sozialen Medien SCHUBS Gesetz, das 2022 eingeführt wurde, und ein Gesetzentwurf von 2023, der wahrscheinlich unrealistisch darauf abzielt, Kinder unter sechzehn Jahren vollständig von sozialen Medien fernzuhalten. Aber bevor sich die Gesetzgeber zu einem solchen Vorschlag zusammenschließen, müssen sie sich möglicherweise auf das einigen, was ihnen am wichtigsten ist: die Aufrechterhaltung des radikal offenen Raums des Internets oder die Verpflichtung von Technologieunternehmen, viel vorsichtiger mit den Inhalten auf ihren Plattformen umzugehen. ♦

source site

Leave a Reply