Werfen Sie die wichtigsten Rechenschaftspflicht-Instrumente des Digital Services Act nicht weg – EURACTIV.com


Die Bestimmungen des Digital Services Act zur Risikobewertung und -prüfung müssen beibehalten und verbessert werden, wenn wir Technologieunternehmen für schädliche Geschäftsmodelle und Rechtsverletzungen zur Rechenschaft ziehen wollen, schreiben Nienke Palstra, Emma Ruby-Sachs, Claudia Prettner und Jesse Lehrich.

Nienke Palstra ist Senior Campaignerin bei Global Witness.

Emma Ruby-Sachs ist die geschäftsführende Direktorin von SumOfUs.

Claudia Prettner ist Rechts- und Politikberaterin bei Amnesty International.

Jesse Lehrich ist der Gründer von Accountable Tech.

Mit steigenden Temperaturen in Brüssel in diesem Sommer heizen sich die Verhandlungen über das Digital Services Act der EU ähnlich auf.

Es mag im letzten Monat unbemerkt geblieben sein, dass der Entwurf einer Stellungnahme des Ausschusses für bürgerliche Freiheiten – der nun im Europäischen Parlament für die Akte mitverantwortlich ist – vom deutschen Piraten-Abgeordneten Patrick Breyer einen radikalen Vorschlag zur Streichung zweier wichtiger Bestimmungen zur Rechenschaftspflicht für sehr große Online-Plattformen in der Verordnung: zu Risikobewertungen (Artikel 26) und Prüfungen (Artikel 28).

Breyer begründet die Streichung dieser Bestimmungen mit Bedenken hinsichtlich der Meinungsfreiheit – der Ausweitung des Anwendungsbereichs der Rechtsvorschriften auf möglicherweise schädliche, aber legale Inhalte – und die Befugnisse, die Plattformen und privaten Rechnungsprüfungsbehörden gegenüber öffentlichen Behörden eingeräumt werden.

Das Löschen dieser Artikel wäre jedoch kontraproduktiv für den Schutz der Rechte, um die Breyer besorgt ist. Risikobewertungen und Audits sind erforderlich, um Technologieplattformen für schädliche Designentscheidungen wie Empfehlungs- und Online-Werbesysteme zur Rechenschaft zu ziehen und sicherzustellen, dass den von ihren Diensten ausgehenden Risiken angemessen begegnet wird.

Die algorithmischen Empfehlungssysteme von Plattformen sind mehr als nur das. Allzu oft fungieren sie als Manipulationsmaschinen, die darauf ausgelegt sind, die giftigsten Inhalte zu verstärken – einschließlich Gewalt, Belästigung und Verschwörungstheorien.

Es hat sich gezeigt, dass missbräuchliche und hasserfüllte Inhalte insbesondere Frauen, Farbige, LGBTI-Personen und andere schutzbedürftige Gruppen betreffen – mit dem Ergebnis, dass Menschen zum Schweigen gebracht oder offline geschaltet werden, wodurch das Recht auf freie Meinungsäußerung direkt untergraben wird.

Die Art und Weise, wie diese Artikel derzeit verfasst werden, ist nicht perfekt. Der Wortlaut lässt den Plattformen zu viel Spielraum, um Schlupflöcher zu finden und schwache oder problematische Folgemaßnahmen einzuhalten.

Artikel 26 basiert derzeit auf einer diskreten Liste ausgewählter Grundrechte, gegen die sich Plattformen selbst bewerten können, und übersieht einige der offensichtlichsten und am weitesten verbreiteten Rechtsverletzungen – einschließlich Datenschutz und Verbraucherrechte.

Bei Wirtschaftsprüfungen gibt es berechtigte Bedenken, dass dies einige der Probleme, die wir bereits bei Finanzprüfungen sehen, reproduzieren wird – sie füllen die Taschen der Big Four Wirtschaftsprüfungsgesellschaften, während ernsthafte Fragen zu Interessenkonflikten bestehen bleiben.

Die vollständige Abschaffung der Bestimmungen zur Risikobewertung und -prüfung würde jedoch bedeuten, das Baby mit dem Bade wegzuschütten.

Der Vorschlag zum Digital Services Act versucht, einen schmalen und dornigen Grat zu überbrücken, um die freie Meinungsäußerung zu schützen und „Upload-Filter“ online zu verhindern, während Technologieunternehmen weiterhin für ihre schädlichen Geschäftspraktiken und die Aushöhlung der Grundrechte verantwortlich gemacht werden.

Wie sonst können die Aufsichtsbehörden ohne Risikobewertungen und Audits für Big Tech in der Lage sein, bei systematischen Rechtsverletzungen im Feuer zu bleiben?

Richtig konzipiert sind Risikobewertungen und Audits eine elegante Lösung, um flexibel und robust die Auswirkungen von Big Tech-Unternehmen auf unsere Gesellschaften und Rechte zu hinterfragen und sie zu einem Kurswechsel auf Systemebene zu zwingen. Kurz gesagt, Risikobewertung und Audit stellen einen Weg aus dem Whack-a-Mole der Inhaltsmoderation dar.

Der Text kann und sollte verbessert werden, indem die Risikobewertungen umfassend sind und die tatsächlichen und potenziellen Auswirkungen der Dienstleistungen von Technologieunternehmen und ihrer Geschäftsmodelle auf alle Grundrechte.

Dies sollte besser an internationalen Standards zur menschenrechtlichen Sorgfaltspflicht wie den UN-Leitprinzipien für Wirtschaft und Menschenrechte ausgerichtet werden. Darüber hinaus ist es entscheidend, dass Plattformen nicht nur systemische Risiken mindern müssen, sondern dort, wo sie identifiziert werden, auch gezwungen werden, sie ganz einzustellen.

Breyer hat Recht, dass die Durchführung von Audits ernsthaft überlegt werden muss – wollen wir wirklich, dass Risikobewertungen an private Unternehmen ausgelagert werden, die von den Unternehmen, die sie bewerten sollen, ausgewählt werden?

Die Prüfung ist ein wichtiges Instrument im Arsenal der DSA, das von unabhängig ernannten Experten und nicht unbedingt von traditionellen Wirtschaftsprüfungsgesellschaften durchgeführt werden sollte. Damit Audits aussagekräftig sind, müssen die Experten über Expertise im Plattformdesign verfügen und den Auftrag haben, die für ihre Arbeit notwendigen Informationen und Daten einzusehen – einschließlich der Algorithmen der Plattformen.

Diese Art von Prüfer existiert möglicherweise noch nicht, aber die EU sollte sich bemühen, die Entstehung eines Prüfers zu fördern, anstatt überhaupt keine Prüfungen durchzuführen.

Das Digital Services Act ist verbesserungswürdig, aber nicht so, wie Breyer es vorschlägt.





Source link

Leave a Reply