Facebooks Algorithmen regulieren – keine leichte Aufgabe – EURACTIV.com

Der Punkt ist nicht, dass der Gesetzgeber die Verstärkung nicht regulieren kann. Es ist so, dass es schwierig ist, dies zu tun, während unbeabsichtigte Konsequenzen vermieden werden.

Daphne Keller leitet das Programm zur Plattformregulierung am Cyber ​​Policy Center in Stanford. Bis 2015 war Daphne Associate General Counsel bei Google, wo sie die Hauptverantwortung für die Suchprodukte des Unternehmens trug.

Die Facebook-Whistleblowerin Frances Haugen ist die Informationsquelle, auf die die Politik gewartet hat: Ein Insider, der mit Daten und Dokumentationen bewaffnet ist, der erklären kann, was in einem Unternehmen vor sich geht, das den öffentlichen Diskurs auf der ganzen Welt mitgestaltet.

In den USA jedoch haben Experten und einige politische Entscheidungsträger Haugens differenzierte und faktenorientierte Botschaft auf eine einfache Botschaft reduziert. „Plattformen sind nicht dafür verantwortlich, was ihre Benutzer sagen“, so die Theorie, „aber das Gesetz sollte sie für Nachrichten verantwortlich machen, die sie selbst verstärken.“

Dieses Framing bietet einen scheinbar einfachen Haken zur Regulierung der algorithmischen Verstärkung – der Reihenfolge der Posts im Newsfeed auf Plattformen wie Twitter oder Facebook; die empfohlenen Artikel auf Plattformen wie YouTube oder Eventbrite; oder die Ergebnisse von Suchen in einer Suchmaschine wie Google oder innerhalb von Wikipedia.

Natürlich hat Haugen selbst nie etwas so Einfaches vorgeschlagen. Es erscheint mir unwahrscheinlich, dass Haugen (der wie ich früher bei Google arbeitete) davon ausgeht, dass die einzigartigen Probleme von Facebook als Grundlage für die Regulierung des restlichen Internets extrapoliert werden könnten. Es bleibt abzuwarten, was uns ihre Enthüllungen über Facebook über Vermittler beibringen können, die in unserem Informationsökosystem ganz unterschiedliche Funktionen erfüllen. Zu vereinfachenden politischen Schlussfolgerungen zu springen und jede Plattform so zu regulieren, als wäre es Facebook, würde die Gelegenheit für eine evidenzbasierte Analyse verschenken.

Politische Entscheidungsträger mögen immer noch von der Idee angezogen werden, dass die Ausweitung der Plattformhaftung für amplifizierte Inhalte eine Silberkugellösung für komplexe Probleme ist. Wie ich in diesem Essay beschrieben habe, wird die Konzentration auf die Verstärkung das Leben jedoch nicht einfacher machen. Fragen der Verstärkung und der Grundrechte sind besonders heikel. Die gleichen Probleme, die die bestehenden Prozesse von Plattformen plagen, Löschen Inhalte – einschließlich falscher oder fehlerhafter rechtlicher Hinweise, übermäßiger Entfernung durch Plattformen, die rechtliche Risiken vermeiden wollen, und unterschiedliche Auswirkungen nachlässiger Durchsetzungsmechanismen – würden ihre Bemühungen beeinträchtigen, degradieren oder hören Sie auch auf, Inhalte zu verstärken.

Nutzer, die ihre rechtmäßigen Beiträge deshalb von Newsfeeds ausgeschlossen fanden, würden den Gesetzgeber und die Plattformen selbst zu Recht beschuldigen. Wie der Generalanwalt des Europäischen Gerichtshofs kürzlich sagte: „Der Gesetzgeber kann eine solche Aufgabe nicht delegieren und gleichzeitig die Haftung für die daraus resultierenden Eingriffe in die Grundrechte der Nutzer auf diese Anbieter abwälzen.“ Zusätzliche Rechtsfragen würden sich aufgrund der eigenen Geschäftsfreiheit der Plattformen im Rahmen der Charta der Europäischen Union ergeben.

Es geht nicht darum, dass der Gesetzgeber kippen Verstärkung regulieren. Es ist so, dass es schwierig ist, dies zu tun, während unbeabsichtigte Konsequenzen vermieden werden. Algorithmische Regulierung ist schwieriger zu erreichen als die Haftungsregeln für Plattformen im kommenden europäischen Gesetz über digitale Dienste – und selbst diese Regeln sind komplex und waren zu Recht Gegenstand langwieriger Konsultationen und Faktensammlungen durch die Kommission.

Theoretisch könnte der Gesetzgeber Plattformen dazu bringen, ihre Algorithmen „auszuschalten“, um die Verstärkung zu verbieten. Ein gängiger Vorschlag würde verlangen oder Anreize schaffen, Benutzerbeiträge in umgekehrter chronologischer Reihenfolge anzuzeigen, indem die neuesten Beiträge an den Anfang eines Newsfeeds gesetzt werden. Für den Twitter- oder Facebook-Newsfeed könnte dies einige spezifische Probleme beseitigen, die durch das Engagement-basierte Content-Ranking entstehen.

Gleichzeitig würde es neue Möglichkeiten für Unfug eröffnen, auch durch koordiniertes unechtes Handeln. Ein Problem hat mit der Wiederholung zu tun: Ein chronologischer Newsfeed kann von Leuten oder Bots gespammt werden, die alle paar Sekunden das Gleiche oder Ähnliches posten. Ein rein chronologisches System wird wahrscheinlich auch mehr „grenzwertige“ Inhalte anzeigen – Material, das fast, aber nicht ganz, gegen jegliche Sprachverbote einer Plattform verstößt. Ohne algorithmische Herabstufung als Option hätten Plattformen nur die binären Optionen, Inhalte vollständig zu entfernen oder wegzulassen.

Ein anderes mögliches nicht inhaltsbasiertes Gesetz wäre eine „Leistungsschalter“-Regel, die eine Verstärkung nur bis zu einer bestimmten quantifizierten Grenze zulässt. Dieses Limit kann durch Metriken wie die Häufigkeit, mit der ein Artikel Nutzern angezeigt wird, oder eine stündliche Steigerung der Zuschauerzahlen definiert werden.

Das Problem dabei ist, dass Eilmeldungen zu einem plötzlichen Anstieg der Benutzerinteraktion und des Interesses führen. Neuartige oder berichtenswerte Beiträge, darunter extrem wichtiges Material wie die Videos, die den Tod von Philando Castile oder George Floyd durch die Polizei in den USA dokumentieren, wären also überproportional betroffen.

Optionen, die nicht auf einer Regulierung des Inhalts basieren, sondern auf der Erhöhung der Autonomie der Benutzer und der Diversifizierung ihrer Optionen, können bessere Wege in die Zukunft bieten. Eine genauere Kontrolle darüber, wie unsere personenbezogenen Daten verwendet werden, um gezielt auf Inhalte zuzugreifen, könnte uns beispielsweise die Auswahl weniger polarisierender Materialien ermöglichen. Wettbewerbsveränderungen, die Dutzende konkurrierender Algorithmen für soziale Medien hervorgebracht haben, könnten sicherstellen, dass kein einzelnes Unternehmen die Informationsdiät eines so großen Publikums prägt.

Aber diese Modelle haben ihre eigenen Probleme. Unter anderem würden sie Einzelpersonen nicht daran hindern, aktiv legale, aber schädliche oder polarisierende Inhalte im Internet auszuwählen, ebensowenig wie das geltende Recht ähnliche Entscheidungen beim Konsum von Büchern oder Musik verhindert. Indem sie jedoch die Auswahlmöglichkeiten der Benutzer erhöhen, könnten sie andere wichtige Probleme lindern und unsere Online-Erfahrung verbessern. Wir könnten eine Version von Twitter haben, die für weibliche Journalisten sicherer ist, eine Version von YouTube, die von Anti-Hass-Sprachgruppen überprüft wird, oder eine Version von Facebook, die für diejenigen optimiert ist, die Sport lieben oder hassen.

Der Facebook-Whistleblower wies auf große Probleme mit dem heutigen Internet hin. Diese Probleme sind ernst und verdienen ernsthafte Lösungen. Vorschnell ausgearbeitete Regeln zur Regulierung der Verstärkung – insbesondere Regeln, die nicht fest auf Beweisen beruhen – bieten nicht den richtigen Weg.


source site

Leave a Reply