Oberster Gerichtshof weicht Urteil zum Umfang des Internet Liability Shield aus

Der Oberste Gerichtshof erklärte am Donnerstag, dass er über eine Frage von großer Bedeutung für die Technologiebranche nicht entscheiden werde: ob YouTube sich auf ein Bundesgesetz berufen könne, das Internetplattformen von der rechtlichen Verantwortung für das, was ihre Nutzer posten, in einem von der Familie von YouTube eingereichten Fall ausschließt eine Frau, die bei einem Terroranschlag getötet wurde.

Stattdessen entschied das Gericht in einem Begleitfall, dass ein anderes Gesetz, das Klagen wegen „wissentlicher erheblicher Unterstützung“ für Terroristen zulässt, im Allgemeinen überhaupt nicht für Technologieplattformen gilt, was bedeutet, dass nicht entschieden werden muss, ob dies der Fall ist Haftungsschutz angewendet.

Die einstimmige Entscheidung des Gerichts im zweiten Fall, Twitter v. Taamneh, Nr. 21-1496, löste beide Fälle effektiv und ermöglichte es den Richtern, schwierigen Fragen zum Geltungsbereich des Gesetzes von 1996, Abschnitt 230 des Communications Decency Act, auszuweichen.

In einer kurzen, nicht unterzeichneten Stellungnahme im Fall YouTube, Gonzalez gegen Google, Nr. 21-1333, erklärte das Gericht, es werde sich „nicht mit der Anwendung von Abschnitt 230 auf eine Beschwerde befassen, die kaum oder gar keine plausiblen Ansprüche zu vertreten scheint“. zur Erleichterung.“ Stattdessen verwies das Gericht den Fall an das Berufungsgericht, „um die Beschwerde der Kläger im Lichte unserer Entscheidung in Twitter zu prüfen“.

Der Twitter-Fall betraf Nawras Alassaf, der 2017 bei einem Terroranschlag in einem Nachtclub in Istanbul getötet wurde, zu dem sich der Islamische Staat bekannte. Seine Familie verklagte Twitter und andere Technologieunternehmen mit der Begründung, sie hätten ISIS erlaubt, ihre Plattformen zur Rekrutierung und Ausbildung von Terroristen zu nutzen.

Richter Clarence Thomas, der für das Gericht schrieb, sagte, die „Vorwürfe der Kläger reichen nicht aus, um nachzuweisen, dass diese Angeklagten ISIS bei der Durchführung des betreffenden Angriffs unterstützt und unterstützt haben.“

Diese Entscheidung ermöglichte es den Richtern, eine Entscheidung über den Anwendungsbereich von Abschnitt 230 des Communications Decency Act zu vermeiden, einem Gesetz aus dem Jahr 1996, das die damals junge Schöpfung namens Internet fördern sollte.

Abschnitt 230 war eine Reaktion auf eine Entscheidung, mit der ein Online-Forum für die Beiträge eines Benutzers haftbar gemacht wurde, weil der Dienst eine gewisse Inhaltsmoderation durchgeführt hatte. In der Bestimmung heißt es: „Kein Anbieter oder Benutzer eines interaktiven Computerdienstes darf als Herausgeber oder Sprecher von Informationen behandelt werden, die von einem anderen Anbieter von Informationsinhalten bereitgestellt werden.“

Abschnitt 230 trug zum Aufstieg großer sozialer Netzwerke wie Facebook und Twitter bei, indem er sicherstellte, dass die Websites nicht mit jedem neuen Tweet, jeder Statusaktualisierung und jedem neuen Kommentar eine rechtliche Haftung übernahmen. Die Einschränkung der Reichweite des Gesetzes könnte dazu führen, dass die Plattformen mit Klagen konfrontiert werden, weil sie Menschen zu Posts und Videos geleitet haben, die Extremismus fördern, zu Gewalt aufrufen, dem Ruf schaden und emotionalen Stress verursachen.

Das Urteil kommt zu einem Zeitpunkt, an dem die Entwicklungen bei hochmodernen Produkten der künstlichen Intelligenz tiefgreifende Fragen darüber aufwerfen, ob Gesetze mit den sich schnell verändernden Technologien Schritt halten können.

Der Fall wurde von der Familie von Nohemi Gonzalez eingereicht, einer 23-jährigen Studentin, die im November 2015 bei Terroranschlägen in einem Restaurant in Paris getötet wurde, die auch die Bataclan-Konzerthalle zum Ziel hatten. Die Anwälte der Familie argumentierten, dass YouTube, eine Tochtergesellschaft von Google, Algorithmen verwendet habe, um Videos des Islamischen Staates interessierten Zuschauern zugänglich zu machen.

Eine wachsende Gruppe parteiübergreifender Gesetzgeber, Akademiker und Aktivisten ist gegenüber Abschnitt 230 skeptisch geworden und sagt, dass er riesige Technologieunternehmen vor den Folgen von Desinformation, Diskriminierung und gewalttätigen Inhalten auf ihren Plattformen bewahrt habe.

In den letzten Jahren haben sie ein neues Argument vorgebracht: dass die Plattformen ihren Schutz einbüßen, wenn ihre Algorithmen Inhalte empfehlen, gezielte Werbung schalten oder neue Verbindungen zu ihren Nutzern herstellen. Diese Empfehlungsmaschinen sind allgegenwärtig und unterstützen Funktionen wie die Autoplay-Funktion von YouTube und Instagram-Vorschläge für Konten, denen man folgen sollte. Die Richter haben diese Argumentation größtenteils zurückgewiesen.

Auch Kongressabgeordnete forderten Gesetzesänderungen. Aber die politischen Realitäten haben weitgehend verhindert, dass diese Vorschläge Anklang finden. Die Republikaner sind verärgert darüber, dass Technologieunternehmen Beiträge von konservativen Politikern und Verlegern entfernen, und wollen, dass die Plattformen weniger Inhalte entfernen. Die Demokraten wollen, dass die Plattformen mehr, etwa falsche Informationen über Covid-19, entfernen.

source site

Leave a Reply