Der Oberste Gerichtshof prüft den Algorithmus

Als das Ninth Circuit Court of Appeals im Jahr 2020 eine Klage gegen Google prüfte, äußerte Richter Ronald M. Gould seine Ansicht über den wichtigsten Vermögenswert des Technologieriesen unverblümt: „Sogenannte ‚neutrale‘ Algorithmen“, schrieb er, „können umgewandelt werden in tödliche Vernichtungsraketen des IS.“

Laut Gould war es an der Zeit, die Grenzen eines kleinen Ausschnitts des Communications Decency Act von 1996, bekannt als Abschnitt 230, in Frage zu stellen, der Online-Plattformen vor der Haftung für die Dinge schützt, die ihre Benutzer posten. Die Kläger in diesem Fall, die Familie einer jungen Frau, die 2015 bei einem Angriff des Islamischen Staates in Paris getötet wurde, behaupteten, Google habe gegen das Anti-Terror-Gesetz verstoßen, indem es dem Empfehlungssystem von YouTube erlaubt habe, terroristische Inhalte zu bewerben. Die Algorithmen, die ISIS-Videos verstärkten, seien an und für sich eine Gefahr, argumentierten sie.

Gould war in der Minderheit, und der Fall wurde zugunsten von Google entschieden. Aber selbst die Mehrheit warnte davor, dass die Verfasser von Abschnitt 230 – Menschen, deren Vorstellung vom World Wide Web möglicherweise auf E-Mail und die Yahoo-Homepage beschränkt war – sich nie vorstellen konnten, „das Niveau der Raffinesse, das Algorithmen erreicht haben“. Die Mehrheit schrieb, dass die „umfassende Immunität“ von Abschnitt 230 „wahrscheinlich auf einem antiquierten Verständnis“ der Moderation von Plattformen basiere und dass der Kongress dies überdenken sollte. Der Fall ging dann an den Obersten Gerichtshof.

In diesem Monat wird sich das höchste Gericht des Landes zum ersten Mal mit Abschnitt 230 befassen, da es zwei Fälle abwägt –Gonzalez gegen Google, und eine weitere gegen Twitter – die sich auf das Anti-Terrorismus-Gesetz berufen. Die Justiz wird versuchen festzustellen, ob Online-Plattformen zur Rechenschaft gezogen werden sollten, wenn ihre Empfehlungssysteme, die auf eine Weise funktionieren, die Benutzer nicht sehen oder verstehen können, Terroristen helfen, indem sie ihre Inhalte bewerben und sie einem breiteren Publikum zugänglich machen. Sie werden der Frage nachgehen, ob Algorithmen als Kreationen einer Plattform wie YouTube etwas sind, das sich von allen anderen Aspekten dessen unterscheidet, was eine Website zu einer Plattform macht, die Inhalte von Drittanbietern hosten und präsentieren kann. Und je nachdem, wie sie diese Frage beantworten, könnten sie das Internet, wie wir es derzeit kennen und wie manche Menschen es ihr ganzes Leben lang kennen, verändern.

Die Wahl des Obersten Gerichtshofs auf diese beiden Fälle ist überraschend, weil die Kernfrage so offensichtlich geklärt scheint. Im Fall gegen Google verwies das Berufungsgericht auf ein ähnliches Verfahren gegen Facebook aus dem Jahr 2019, in dem es um von der Hamas erstellte Inhalte ging, die angeblich zu Terroranschlägen beigetragen hatten. Das Second Circuit Court of Appeals entschied zugunsten von Facebook, obwohl der damalige Vorsitzende Richter Robert Katzmann in einem teilweisen Dissens Facebook für die Verwendung von Algorithmen ermahnte und schrieb, dass das Unternehmen erwägen sollte, sie überhaupt nicht zu verwenden. „Oder Facebook könnte seine Algorithmen modifizieren, um sie davon abzuhalten, sich gegenseitig Terroristen vorzustellen“, schlug er vor.

Sowohl in den Facebook- als auch in den Google-Fällen beziehen sich die Gerichte auch auf einen wegweisenden Fall nach Abschnitt 230 aus dem Jahr 2008, der gegen die Website Roommates.com eingereicht wurde. Die Website wurde für verantwortlich befunden, Benutzer dazu ermutigt zu haben, gegen das Fair Housing Act zu verstoßen, indem sie ihnen eine Umfrage gegeben haben, in der sie gefragt wurden, ob sie Mitbewohner bestimmter Rassen oder sexueller Orientierungen bevorzugen. Durch die Aufforderung an die Benutzer auf diese Weise hat Roommates.com die Informationen „entwickelt“ und somit direkt die illegale Aktivität verursacht. Nun wird der Oberste Gerichtshof prüfen, ob ein Algorithmus Informationen auf ähnlich sinnvolle Weise entwickelt.

Die in Abschnitt 230 umrissene breite Immunität ist seit Jahrzehnten umstritten, hat aber in den letzten Jahren aus verschiedenen Gründen, einschließlich der Gegenreaktion von Big Tech, besondere Aufmerksamkeit und verstärkte Debatten auf sich gezogen. Sowohl für Republikaner als auch für Demokraten, die nach einer Möglichkeit suchen, die Macht von Internetunternehmen zu kontrollieren, ist Section 230 zu einem attraktiven Ziel geworden. Donald Trump wollte es loswerden, Joe Biden auch.

Inzwischen äußern die Amerikaner schärfere Gefühle gegenüber Social-Media-Plattformen und sind in der Sprache der Aufmerksamkeitsökonomie artikulierter geworden; Sie sind sich der möglichen radikalisierenden und polarisierenden Wirkung von Websites bewusst, die sie früher als Spaß betrachteten. Klagen wegen Personenschäden haben die Macht von Algorithmen angeführt, während der Kongress Bemühungen in Betracht gezogen hat, die „Verstärkung“ zu regulieren und algorithmische „Transparenz“ zu erzwingen. Als Frances Haugen, die Facebook-Whistleblowerin, im Oktober 2021 vor einem Unterausschuss des Senats auftrat, bemerkte der Demokrat Richard Blumenthal in seinen Eröffnungskommentaren, es stelle sich die Frage, „ob es so etwas wie einen sicheren Algorithmus gibt“.

Obwohl Ranking-Algorithmen, wie sie von Suchmaschinen verwendet werden, historisch geschützt wurden, hat Jeff Kosseff, der Autor eines Buches über Abschnitt 230, genannt Die 26 Wörter, die das Internet erschufen, sagte mir, er verstehe, warum es „eine gewisse Versuchung“ gebe, zu sagen, dass nicht alle Algorithmen abgedeckt werden sollten. Manchmal liefern algorithmisch generierte Empfehlungen schädliche Inhalte für Menschen, und Plattformen haben nicht immer genug getan, um dies zu verhindern. Es könnte sich also hilfreich anfühlen, etwas zu sagen wie Sie haften nicht für die Inhalte selbst, aber Sie haften, wenn Sie dazu beitragen, dass sie viral werden. „Aber wenn du das sagst, was ist dann die Alternative?“ fragte Kosseff.

Vielleicht sollten Sie nur dann Immunität nach Abschnitt 230 erhalten, wenn Sie jeden einzelnen Inhalt auf Ihrer Website in einer genauen chronologischen Reihenfolge anordnen und ihn niemals von einem Algorithmus berühren, sortieren, organisieren oder aus irgendeinem Grund blockieren lassen. “Ich denke, das wäre ein ziemlich schlechtes Ergebnis”, sagte Kosseff. Eine Website wie YouTube – die Millionen und Abermillionen von Videos hostet – würde wahrscheinlich funktional nutzlos werden, wenn das Berühren eines dieser Inhalte mit einem Empfehlungsalgorithmus das Risiko einer rechtlichen Haftung bedeuten könnte. In einem Amicus-Brief, der zur Unterstützung von Google eingereicht wurde, nannte Microsoft die Idee, den Schutz von Abschnitt 230 von Algorithmen zu entfernen, „unlogisch“ und sagte, dass dies „verheerende und destabilisierende“ Auswirkungen haben würde. (Microsoft besitzt Bing und LinkedIn, die beide ausgiebig von Algorithmen Gebrauch machen.)

Robin Burke, der Direktor des That Recommender Systems Lab an der University of Colorado in Boulder, hat ein ähnliches Problem mit dem Fall. (Burke war Teil einer vom Center for Democracy and Technology organisierten Expertengruppe, die einen weiteren Amicus Brief für Google einreichte.) Letztes Jahr war er Mitautor eines Papiers über „algorithmischen Hass“, das sich mit möglichen Ursachen für weit verbreiteten Hass befasste von Empfehlungen und Rankings. Als Beispiel lieferte er Elon Musks 2022 Erklärung über den Feed von Twitter: „Sie werden vom Algorithmus auf eine Weise manipuliert, die Sie nicht erkennen.“ Burke und seine Co-Autoren kamen zu dem Schluss, dass die Frustration und Angst der Benutzer und der algorithmische Hass zum Teil auf „das mangelnde Wissen der Benutzer über diese komplexen Systeme zurückzuführen sein könnten, was durch den monolithischen Begriff ‚der Algorithmus‘ belegt wird, für das es sich tatsächlich um Sammlungen von handelt Algorithmen, Richtlinien und Verfahren.“

Als wir uns kürzlich unterhielten, betonte Burke, dass er die schädlichen Auswirkungen, die Algorithmen haben können, nicht leugne. Aber das in der Klage gegen Google vorgeschlagene Vorgehen macht für ihn keinen Sinn. Zum einen deutet dies darauf hin, dass „zielgerichtete“ Algorithmen etwas einzigartig Schlechtes an sich haben. „Ein Teil des Problems ist, dass dieser Begriff in der Klage nicht wirklich definiert ist“, sagte er mir. „Was bedeutet es, wenn etwas zielgerichtet ist?“ Es gibt eine Menge Dinge, die die meisten Menschen tun gezielt ansprechen wollen. Tippen Schlosser in eine Suchmaschine wäre ohne Targeting nicht praktikabel. Ihre Freundesempfehlungen würden keinen Sinn machen. Am Ende würden Sie wahrscheinlich viel Musik hören, die Sie hassen. „Es gibt keinen guten Ort, um zu sagen: ‚Okay, das ist auf der einen Seite der Linie, und diese anderen Systeme sind auf der anderen Seite der Linie’“, sagte Burke. Noch wichtiger ist, dass Plattformen auch Algorithmen verwenden, um schädliche Inhalte zu finden, zu verbergen und zu minimieren. (Material über Kindesmissbrauch wird beispielsweise oft durch automatisierte Prozesse entdeckt, die komplexe Algorithmen beinhalten.) Ohne sie, sagte Kosseff, wäre das Internet „eine Katastrophe“.

„Ich war wirklich überrascht, dass der Oberste Gerichtshof diesen Fall angenommen hat“, sagte er mir. Wenn die Richter eine Gelegenheit wollten, Abschnitt 230 in irgendeiner Weise zu überdenken, hatten sie viele davon. „Es gab andere Fälle, die sie bestritten haben, die bessere Kandidaten gewesen wären.“ So nannte er beispielsweise eine Klage gegen die Dating-App Grindr wegen angeblicher Ermöglichung von Stalking und Belästigung, in der argumentiert wurde, Plattformen müssten für grundsätzlich schlechte Produkteigenschaften haften. „Dies ist ein echter Streitfall nach Abschnitt 230, bei dem die Gerichte nicht konsequent sind“, sagte Kosseff. Der Grindr-Fall war erfolglos, aber der Ninth Circuit wurde durch ein ähnliches Argument überzeugt, das von Klägern gegen Snap in Bezug auf den Tod von zwei 17-Jährigen und einem 20-Jährigen vorgebracht wurde, die bei einem Autounfall getötet wurden, während sie ein Snapchat benutzten Filter, der anzeigt, wie schnell sich ein Fahrzeug bewegt. Ein weiterer Fall, in dem behauptet wird, dass die „Talk to Strangers“-App Omegle den Sexhandel mit einem 11-jährigen Mädchen erleichtert hat, befindet sich in der Entdeckungsphase.

Viele Fälle, in denen argumentiert wird, dass eine Verbindung zwischen sozialen Medien und bestimmten Terrorakten besteht, werden ebenfalls abgewiesen, weil es schwierig ist, eine direkte Verbindung zu beweisen, sagte mir Kosseff. “Das lässt mich denken, dass dies ein seltsamer Fall ist”, sagte er. “Es lässt mich fast denken, dass es einige Richter gab, die in dieser Amtszeit wirklich, wirklich einen Fall nach Abschnitt 230 hören wollten.” Und aus dem einen oder anderen Grund waren diejenigen, an denen sie am meisten interessiert waren, diejenigen über die Schuld dieses mysteriösen, missverstandenen modernen Bösewichts, des allmächtigen Algorithmus.

Der Algorithmus wird also bald seinen Tag vor Gericht haben. Dann werden wir sehen, ob die Zukunft des Internets chaotisch und verwirrend und manchmal gefährlich sein wird, wie seine Gegenwart, oder völlig absurd und ehrlich gesagt unvorstellbar. „Ein durchschnittlicher Benutzer würde heute ungefähr 181 Millionen Jahre brauchen, um alle Daten aus dem Internet herunterzuladen“, schrieb Twitter in seinem Amicus Brief zur Unterstützung von Google. Eine Person mag denken, dass sie alles in Ordnung und unberührt sehen möchte, aber das tut sie wirklich, wirklich nicht.


source site

Leave a Reply