In den letzten zehn Jahren wurde das soziale Internet weitgehend von geheimen Algorithmen kontrolliert. Sie wurden von Technologieunternehmen entwickelt, um Aufmerksamkeit zu erregen und das Engagement zu fördern. Sie bestimmen, welche Posts in Ihren Feeds landen und welche wie ein Stein versinken, um nie wieder gesehen zu werden. Diese Algorithmen spielen eine Rolle bei der Polarisierung, indem sie gewöhnliche Menschen über Nacht zu Ruhm und der Verbreitung extremer, Gewalt provozierender Inhalte verhelfen. Sie fungieren im Allgemeinen als Black Boxes, die vor akademischen Forschern und der Öffentlichkeit verborgen sind, trotz des Vorstoßes namhafter Persönlichkeiten aus Technologie und Politik, sie transparenter zu machen.
Aber letzte Woche bekam die Welt eine winzige Taschenlampe und die Chance, einen Blick hinein zu werfen. Zum ersten Mal hat ein großes US-amerikanisches Social-Media-Unternehmen, Twitter, einen Teil seines Algorithmus veröffentlicht, damit jeder ihn sehen kann. Sie hat den Quellcode für ihre „For You“-Seite öffentlich gemacht und veröffentlicht ein Blogbeitrag von seinem Engineering-Team, das erklärt, wie das Empfehlungssystem im Großen und Ganzen funktioniert. Das Unternehmen begrüßte den Schritt als ersten Schritt in Richtung eines „neue Ära der Transparenz.“ In einem Twitter Spaces-Gespräch sagte der CEO der Plattform, Elon Musk, das Ziel sei es, Vertrauen bei den Benutzern aufzubauen: Wie sonst, fragte er, würden Sie wissen, ob der Algorithmus „in einer Weise manipuliert werden könnte, die Sie nicht verstehen“. ob das von Codefehlern oder staatlichen Akteuren kommt?
Der Schritt war beispiellos, aber dies wird wahrscheinlich nicht als großer Tag in die Geschichte der algorithmischen Transparenz eingehen. Forscher sagten mir, dass der Code allein aufgrund seiner Existenz bemerkenswert ist – sie haben zuvor noch nie eine solche Veröffentlichung von großen sozialen Plattformen gesehen –, sagten aber, dass er erhebliche Einschränkungen hat. Dem Code und dem begleitenden Blogbeitrag fehlt der Kontext, der vollständig erklären würde, warum Sie einen bestimmten Tweet sehen oder nicht sehen, und Musk hat auch eine Reihe von Entscheidungen getroffen, die die Transparenz und die allgemeine Verantwortlichkeit in anderer Hinsicht verringern. Als ich die Presse-E-Mail von Twitter per E-Mail um einen Kommentar zu seinem angeblichen Streben nach Transparenz bat, erhielt ich eine automatische Antwort mit einem einzelnen Poop-Emoji – Teil des neuen Ansatzes des CEO für Medienanfragen.
Was verrät der Code eigentlich? Zachary Steinert-Threlkeld, Assistenzprofessor für öffentliche Ordnung an der UCLA, sagte per E-Mail, dass seine technischen Ansätze „heutzutage ziemlich Standard“ seien. Er sagte mir: „Es ist zum Beispiel nicht verwunderlich, dass ein sozialer Graph, Community-Erkennung und Einbettungen verwendet werden.“ Und Twitter hat immer noch keinen Einblick in die größeren KI-Modelle gegeben, die unter der Oberfläche arbeiten, noch in die Daten, mit denen sie trainiert werden. Stattdessen hat das Unternehmen einen begrenzten Einblick in einen Teil seines Auswahlprozesses angeboten, der Folgendes beinhaltet 1.500 Tweets abrufen „aus einem Pool von Hunderten von Millionen“, um einem Benutzer im Abschnitt „Für Sie“ zu dienen. (Aus dem Blogbeitrag des Unternehmens geht nicht ganz klar hervor, warum die Zahl 1.500 ausgewählt wurde oder wie oft diese Tweets aktualisiert werden.)
Hier gibt es einige neue Informationen darüber, was das System priorisiert. Wir haben jetzt ein besseres Verständnis dafür, welche Aktionen dem System signalisieren könnten, dass ein Tweet mehr Aufmerksamkeit verdient, obwohl der vollständige Prozess noch unklar ist. Eine Analyse notiert dass Tweets mit Fotos und Videos Anklang finden und Likes bekommen könnte die Sichtbarkeit erhöhen mehr als nur Antworten – aber es gab auch welche Uneinigkeit über diese Schlussfolgerungen, die die Gefahren des Dumping-Codes ohne Kontext veranschaulichen. Die winzige Taschenlampe, die wir bekommen haben, beleuchtet nur einen Teil eines viel größeren Systems, und die Leute sehen darin verschiedene Dinge. (Twitter sagte in seinem Transparenz-Blogbeitrag, dass es Teile seines Modells zurückgehalten habe, um die Sicherheit und Privatsphäre der Benutzer sowie sich selbst vor schlechten Akteuren zu schützenzielt aber letztendlich darauf ab, mehr aus seinem Produkt Open Source zu machen.)
Es gibt auch keinen Grund zu der Annahme, dass der von Twitter angebotene Schnappschuss noch relevant ist. „Wir wissen, dass das Twitter-Symbol letzte Woche ein Vogel war und heute ein Hund“, Cameron Hickey, Direktor des Algorithmic Transparency Institute, einem Projekt der gemeinnützigen National Conference on Citizenship zur Untersuchung und Überwachung der Verbreitung problematischer Inhalte online, sagte mir in einer E-Mail. „Wir können sehen, dass sie ständig ändern, was die Plattform tut, sodass dieser Zeitpunkt für den Empfehlungsalgorithmus wahrscheinlich schnell veraltet sein wird.“ Moschus hat getwittert dass das Unternehmen plant, seinen Algorithmus alle 24 bis 48 Stunden mit Vorschlägen aus der Öffentlichkeit zu aktualisieren. Aber niemand verlangt, dass es jeden Tweak offenlegt oder es für irgendeinen regelmäßigen Zeitplan verantwortlich macht.
Auch algorithmische Transparenz ist nur ein Teil des Puzzles. Unter der Führung von Musk hat Twitter rücksichtslos Leitplanken niedergerissen, wie z Verfahren). Wichtige Entscheidungen, die das Nutzererlebnis betreffen, werden ohne klare Begründung getroffen: Am Wochenende hat das Unternehmen den blauen Haken abgezogen Der New York Times‘ Twitter-Account, der NPR heute als „staatsnahe Medien“ bezeichnet. Donald Moynihan, Politikprofessor an der Georgetown University, der häufig über Tech Governance schreibt, auf Twitter vermerkt dass Richtlinien, die einst zum Schutz von Benutzern verwendet wurden, „jetzt auf offensichtlich unsinnige Weise umgeschrieben werden, um den Launen ihres Besitzers zu entsprechen“.
Wie Imran Ahmed, der Geschäftsführer des Center for Countering Digital Hate, es mir gegenüber ausdrückte: „Insgesamt ist Twitter seit Musk weniger transparent geworden, nicht mehr, trotz auffälliger Ankündigungen wie dieser.“ Er führte zum Beispiel die jüngsten Schritte von Twitter an, den Zugriff von Forschern auf seine Daten einzuschränken. Obwohl Akademiker in der Vergangenheit nicht in der Lage waren, einen Blick in die tatsächlichen Algorithmen zu werfen, die Twitter ausführen, konnten sie auf einige der Daten der Plattform kostenlos zugreifen. Jetzt berechnet Twitter ihnen für dieses Privileg 42.000 bis 210.000 US-Dollar pro Monat. Das macht es für unabhängige Parteien schwieriger, beispielsweise die politische Polarisierung auf Twitter zu untersuchen. „Während sie diese Geste machen, von der einige sagen könnten, dass sie in die richtige Richtung geht, nehmen sie gleichzeitig die meisten Daten weg, die die meisten Forscher verwendet haben“, Chris Bail, Professor für Soziologie, öffentliche Ordnung und Daten Wissenschaft an der Duke University, erzählte es mir.
Tech-Unternehmen haben gute Gründe, einige Informationen unter Verschluss zu halten. Ein vollständig öffentlicher Code wäre mit einem gewissen Risiko verbunden, betonte Bail: Die Leute wüssten genau, wie man Regeln untergräbt und sich zu mehr Sichtbarkeit durchhackt. Experten haben stattdessen eine unabhängige, kleine Gruppe von Forschern vorgeschlagen, die vollen Zugang erhalten würden, um diese Systeme zu untersuchen und zu überprüfen und ihre Ergebnisse dann der Öffentlichkeit zu melden. In einem Stück für Der AtlantikRumman Chowdhury, der ein Twitter-Team leitete, das sich dem verantwortungsvollen Umgang mit KI und maschinellem Lernen widmete, bevor es von Musk ausgeweidet wurde, bürgte für Gesetze, die Technologieunternehmen zwingen würden, ihren Code an externe Prüfer zu übergeben.
„Wenn Mr. Musk wirklich Wert auf Transparenz oder den gleichen Ausdruck aller Stimmen auf diesem sogenannten Town Square legt, würde er externe Prüfer einladen, unabhängige Überprüfungen der Technologie durchzuführen und zu veröffentlichen“, sagt Liz O’Sullivan, CEO von Vera KI-Vertrauens- und Sicherheitsplattform, sagte mir.
Das tut Elon hier nicht. Steinert-Threlkeld fragte sich, ob Twitter selbst der größte Nutznießer der Änderung sein würde und nicht die Öffentlichkeit. Jeder zufällige Entwickler auf GitHub kann jetzt Änderungen am Code vorschlagen, wenn er Lust dazu hat. „Wenn Fehler entdeckt oder Verbesserungen an den Algorithmen vorgeschlagen und akzeptiert werden, wird Twitter einen Weg gefunden haben, die Tausenden von Mitarbeitern zu ersetzen, die gegangen sind oder gefeuert wurden“, sagte er. Mit anderen Worten, Twitters „Open Source“ seines Algorithmus kann Twitter nur zugute kommen: Es ist schließlich nicht verpflichtet, Änderungen vorzunehmen.
Das Ziel echter, durchdachter Transparenz besteht darin, Social-Media-Plattformen zu einem besseren Ort für ihre Nutzer zu machen – und für die breitere Palette von Menschen, die von allem, was auf ihnen passiert, betroffen sind. Musks Erfolgsbilanz deutet darauf hin, dass seine wahren Prioritäten woanders liegen. In dem letzte Woche veröffentlichten Code erscheint Musks Name und scheint Berichte zu bestätigen, dass er Ingenieure unter Druck gesetzt hatte, ein spezielles System zu erstellen, damit der Algorithmus seine Tweets priorisiert. “Das ist das erste Mal, dass ich das sehe”, sagte er.