Der Oberste Gerichtshof versteht tatsächlich das Internet

Zum ersten Mal prüft der Oberste Gerichtshof seine Meinung zu den kurzen, aber wirkungsvollen „26 Wörtern, die das Internet geschaffen haben“.

Der 1996 erlassene Abschnitt 230 des Communications Decency Act immunisiert Online-Plattformen von der Haftung für alles, was von Dritten auf ihrer Website gepostet wird – ein Schutz, der das Internet erblühen ließ, indem er Experimente und Interaktivität in seinen Anfangsjahren förderte. In jüngerer Zeit wurde Abschnitt 230 genau untersucht, da überparteiliche Kritiker argumentieren, dass er mächtigen Technologieunternehmen zu viel Deckung und zu wenig Rechenschaftspflicht bietet.

Die Sichtweise des Obersten Gerichtshofs zu diesem Thema war bis zu dieser Woche ein Rätsel, als die Richter mündliche Verhandlungen in zwei Fällen mit 230 anhörten. Am Dienstag wurde das Gericht gebeten, zu prüfen, ob Google für YouTube-Empfehlungsalgorithmen verantwortlich ist, die den Nutzern Videos des Islamischen Staates zeigen. Der Fall vom Mittwoch war ähnlich, befasste sich jedoch mit der angeblichen Verantwortung von Twitter für ISIS-Mitglieder, die seine Plattform zur Rekrutierung und Spendenbeschaffung nutzen. Wie auch immer die Richter entscheiden, es wird ein großer Moment in der Geschichte des Internets: Die Bestätigung von 230 würde den Druck auf den Kongress oder die Regulierungsbehörden erhöhen, eigene Ideen zur Modernisierung der rechtlichen Leitplanken des Internets zu entwickeln, und eine Neuinterpretation würde Technologieunternehmen dazu zwingen alle Größen zu mutieren, um eine Haftung zu vermeiden.

Die Richtung und der Ton der Befragung deuten darauf hin, dass die Richter eher zu ersterem tendieren, obwohl die Urteile des Gerichts wahrscheinlich erst in einigen Monaten veröffentlicht werden. „Der Oberste Gerichtshof scheint keinen Appetit darauf zu haben, absichtlich die Schleusen für Klagen gegen Technologieunternehmen zu öffnen“, sagte mir James Grimmelmann, Professor für Digital- und Informationsrecht an der Cornell Law School. Dies ist zum Teil deshalb bemerkenswert, weil das Gericht zuvor nicht viel über Plattformen gesagt hat, bemerkte er: „Wir haben seit Jahren nichts gewusst. Wir haben endlich etwas darüber herausgefunden, wo ihre Gedanken sind.“ Es sieht vielleicht so aus, als würden sie dazu neigen, das Internet in Ruhe zu lassen.

Das Gericht erörterte kurz, ob Algorithmen die Immunität nach Abschnitt 230 verlieren können, wenn sie absichtlich diskriminierend sind – das Beispiel, das sie erwogen haben, war ein Dating-App-Algorithmus, der geschrieben wurde, um interrassische Übereinstimmungen zu verbieten. Sie schienen über die Rolle der Intentionalität nachzudenken: Wäre es wichtig, wenn YouTube einen Algorithmus geschrieben hätte, der ISIS oder andere Extremisten gegenüber harmloserem Material bevorzugt, oder wäre jeder Algorithmus immer noch durch 230 geschützt? Aber diese Fragen wurden nicht gelöst; Richter deuteten an, dass sie gerne sehen würden, dass der Kongress derjenige ist, der Abschnitt 230 verfeinert, wenn er verfeinert werden muss, und äußerten sich manchmal selbstironisch über ihre eigene Fähigkeit, die Probleme zu verstehen. „Wir wissen wirklich nicht viel über diese Dinge“, scherzte Richterin Elena Kagan am Dienstag. „Weißt du, das sind nicht etwa die neun größten Experten im Internet.“

Sie kamen jedoch meistens so an, als würden sie das Internet ziemlich gut verstehen. Während der mündlichen Auseinandersetzungen gegen Google sprach Eric Schnapper, der die Familie des ISIS-Opfers Nohemi Gonzalez vertritt, ausführlich über die Entscheidung von YouTube, Videovorschläge mit Thumbnail-Bildern anzuzeigen, und sagte, dass dies die Schaffung neuer Inhalte darstelle von die Platform. „Gibt es eine andere Möglichkeit, sich selbst zu organisieren, ohne Thumbnails zu verwenden?“ Fragte Richter Samuel Alito scheinbar rhetorisch. (Er scherzte dann, dass er annehme, dass die Seite mit „ISIS-Video eins, ISIS-Video zwei und so weiter“ laufen könnte.) Richter Clarence Thomas fragte Schnapper, ob der Empfehlungsalgorithmus von YouTube für Videos über, sagen wir, Reispilaf anders funktioniert als für Videos vom IS. Schnapper sagte, das glaube er nicht, und Richter Kagan warf ein: „Ich denke, was der Frage von Richter Thomas zugrunde lag, war die Andeutung, dass Algorithmen im Internet endemisch sind, dass jedes Mal, wenn irgendjemand etwas im Internet ansieht, ein Algorithmus existiert beteiligt.” Sie fragte sich, ob dieser algorithmuszentrierte Ansatz das Gericht „auf den Weg bringen würde, so dass 230 wirklich überhaupt nichts bedeuten kann“.

Keiner der Richter schien mit Schnappers Argumentation zufrieden zu sein. Richter Brett Kavanaugh fasste es als paradox zusammen und wies darauf hin, dass ein „interaktiver Computerdienst“ im Sinne von Abschnitt 230 als ein Dienst verstanden wurde, „der Inhalte filtert, durchsucht, auswählt, auswählt und organisiert“. Wenn Algorithmen nicht der Immunität nach Abschnitt 230 unterliegen, dann „würde das bedeuten, dass genau das, was die Website zu einem interaktiven Computerdienst macht, auch bedeutet, dass sie den Schutz von 230 verliert. Normalerweise liest man ein Statut nicht, um sich im Wesentlichen selbst zu besiegen.“

Am zweiten Verhandlungstag erörterte das Gericht Abschnitt 230 kaum und konzentrierte sich stattdessen fast ausschließlich auf die Begründetheit des Verfahrens gegen Twitter nach dem Justice Against Sponsors of Terrorism Act. Dies lief auf eine lange Diskussion darüber hinaus, was „Beihilfe und Anstiftung“ darstellen kann oder nicht. Würde eine Plattform beispielsweise haftbar gemacht, wenn sie es versäumt, ihre eigenen Richtlinien durchzusetzen, die Terroristen die Nutzung ihrer Dienste verbieten? Edwin Kneedler, der im Namen des Justizministeriums argumentierte, stellte sich in diesem Fall auf die Seite von Twitter und sagte, dass das Gesetz „mehr erfordert als Behauptungen, dass eine terroristische Organisation sich interaktive Computerdienste zunutze gemacht hat, die von dem Terrorakt entfernt waren; über die automatischen Funktionen dieser Dienste Hunderten von Millionen, wenn nicht Milliarden von Menschen allgemein und routinemäßig zur Verfügung standen; und hat ISIS nicht für eine bevorzugte Behandlung ausgewählt.“

Das Gericht ging dann eine Reihe von Hypothesen durch, die Pagerverkäufe, Waffenverkäufe, die Vorstellung von Osama bin Laden, der personalisierte Bankdienste nutzte, und das imaginäre Szenario von J. Edgar Hoover, der Bell Telephone sagte, Dutch Schultz sei ein Gangster und benutze seinen Telefon, um Mob-Aktivitäten durchzuführen. „Die Diskussion heute Morgen hat wirklich einen sehr akademischen Ton angenommen“, bemerkte Chief Justice John Roberts.

Tatsächlich waren beide Vormittage stark von abstrakten Argumenten geprägt. Das Gericht muss sich mit den größeren Fragen befassen, bevor sich irgendjemand damit befasst, ob, wie in den Falldokumenten berichtet, 1.348 ISIS-Videos mit insgesamt 163.391 Aufrufen auf YouTube – für durchschnittlich 121 Aufrufe pro Video – eine algorithmische Verstärkung terroristischer Inhalte darstellen. Vor ein paar Wochen argumentierte ich, dass die Entscheidung des Obersten Gerichtshofs zu diesen beiden Fällen das Web, wie wir es kennen, verändern könnte – insbesondere, wenn es entscheidet, dass Algorithmen aller Art nicht der Immunität nach Abschnitt 230 unterliegen. Dies würde Suchmaschinen funktionsunfähig machen und eine Flut von Klagen gegen Unternehmen auslösen, die Inhalte durch automatisierte Prozesse organisieren.

Bei der Behandlung dieser Fälle war das Gericht offensichtlich neugierig, ob das Herausgreifen algorithmischer Empfehlungen eine gute Gelegenheit sein könnte, § 230 neu zu interpretieren und damit zu modernisieren. „Ich kann verstehen, warum es ansprechend aussah“, sagte Grimmelmann. „Aber was passierte, als die Fälle tatsächlich zu einer mündlichen Verhandlung kamen, war, dass die Richter sahen, wie komplex es tatsächlich ist und warum diese Grenze nicht sehr gut zu ziehen ist.“

source site

Leave a Reply