Die To-Do-Liste von Big Tech unter den neuen EU-Inhaltsregeln – POLITICO

BRÜSSEL – Die Bemühungen der Europäischen Union, gegen illegale und schädliche digitale Inhalte in der EU vorzugehen, stehen kurz vor dem Durchbruch.

Bereits am Freitag müssen insgesamt 19 sehr große Online-Plattformen und Suchmaschinen – sogenannte VLOPs – die jeden Monat von mehr als 45 Millionen Europäern besucht werden, das im Jahr 2022 verabschiedete EU-Regelwerk für Online-Inhalte, den Digital Services Act (DSA), einhalten. .

Zu den Social-Media-Plattformen im Fadenkreuz gehören Facebook, Instagram, TikTok, X (ehemals Twitter), YouTube, Snapchat, LinkedIn und Pinterest. Auch die Online-Marktplätze Amazon, Booking, AliExpress, Zalando, Google Shopping sowie Wikipedia und Google Maps werden mit der neuen Regulierungsmusik konfrontiert. Die neuen Regeln gelten auch für die App Stores von Google und Apple sowie für die Google-Suche und Bing von Microsoft.

Unternehmen müssen illegale Inhalte wie Fotos von sexuellem Kindesmissbrauch rasch entfernen sowie konkrete Maßnahmen bewerten und vorschlagen, um den großen Risiken, die ihre Plattformen für die Gesellschaft darstellen, einschließlich der Verbreitung von Desinformation und Cybermobbing, entgegenzuwirken. Sie müssen auch transparenter darüber sein, wie sie funktionieren.

Die Europäische Kommission kann Bußgelder in Höhe von bis zu 6 Prozent des weltweiten Jahresumsatzes eines Unternehmens verhängen. In Ausnahmefällen schwerwiegender Verstöße könnte es einem Technologieunternehmen auch vorübergehend untersagt werden, innerhalb der Union tätig zu sein. Brüssel wird von nationalen Aufsichtsbehörden in Ländern unterstützt, in denen Unternehmen ihren europäischen Hauptsitz haben, einschließlich Irland.

Auch die sehr großen Online-Plattformen und Suchmaschinen müssen eine Gebühr von bis zu 0,05 Prozent ihrer weltweiten Einnahmen zahlen, um die Durchsetzungsarbeit der Kommission zu finanzieren.

Hier sind fünf Hauptverpflichtungen, mit denen diese großen Websites und Apps im Rahmen des neuen Regelwerks konfrontiert werden:

1. Entfernen Sie illegale Inhalte

Unternehmen wie Facebook und TikTok müssen illegale Inhalte – im Sinne der europäischen und nationalen EU-Gesetze – „zügig“ entfernen, wenn sie von nationalen Behörden oder Einzelpersonen benachrichtigt werden. Online-Plattformen müssen über klare und einfache Mechanismen verfügen, mit denen Benutzer Inhalte kennzeichnen können, die sie für illegal halten.

Plattformen müssen Nutzer, die häufig illegale Inhalte posten, sperren, jedoch nicht ohne eine Warnung.

Online-Marktplätze wie Amazon und AliExpress müssen ihr Bestes geben, um ihre Online-Händler zu überprüfen, um illegale Produkte auszumerzen – von gefälschten Luxusschuhen bis hin zu gefährlichen Spielzeugen. Wenn sie feststellen, dass Verbraucher ein illegales Produkt gekauft haben, müssen sie sie warnen oder die Informationen auf ihrer Website veröffentlichen.

2. Halten Sie schädliche Inhalte wie Desinformation und Mobbing unter Verschluss

In einem beispiellosen Ausmaß müssen Online-Plattformen und Suchmaschinen der Kommission jährlich einen detaillierten Bericht über die sogenannten systemischen Risiken vorlegen, die sie für die Europäer darstellen.

Unternehmen von Snapchat bis X müssen ermitteln, wie die Zahnräder in ihren Systemen – wie ihre Algorithmen, die Menschen Inhalte und Anzeigen empfehlen – möglicherweise zur Verbreitung illegaler Inhalte und Desinformationskampagnen beitragen. Sie müssen auch prüfen, ob ihre Plattformen Cyber-Gewalt Tür und Tor öffnen, Grundrechte wie die Meinungsfreiheit untergraben und sich negativ auf die psychische Gesundheit der Menschen auswirken.

Alle sechs Monate müssen sich Plattformen öffnen und lange gehütete Informationen bereitstellen | Justin Sullivan/Getty Images

Sie müssen dann Maßnahmen ergreifen, um die identifizierten Risiken zu begrenzen. Dazu könnte die Anpassung ihrer Algorithmen gehören; Entwicklung von Tools für Eltern, mit denen sie kontrollieren können, was ihre Kinder sehen, und das Alter der Benutzer überprüfen können; oder die Kennzeichnung von Inhalten wie Fotos oder Videos, die mit Tools der künstlichen Intelligenz erstellt wurden.

Unternehmen werden von der Kommission, geprüften Forschern und Wirtschaftsprüfungsgesellschaften geprüft. Dieser wird die Beurteilung und die Maßnahmen konkret durchgehen, um entweder die Arbeit der Unternehmen zu genehmigen oder weitere Empfehlungen auszusprechen.

Auch Social-Media-Plattformen und Suchmaschinen müssen ihre Dienste schnell bewerten und anpassen, um die Verbreitung von Unwahrheiten in einer Krise wie einer Naturkatastrophe, einem Krieg oder einer Pandemie einzudämmen.

3. Geben Sie Ihren Benutzern Macht

Sehr große Online-Plattformen und Suchmaschinen müssen über leicht verständliche Geschäftsbedingungen verfügen – und diese „auf sorgfältige, objektive und verhältnismäßige Weise“ anwenden.

Unternehmen müssen Benutzer informieren, wenn sie ihre Inhalte entfernen, ihre Sichtbarkeit einschränken oder ihre Monetarisierung stoppen, und ihnen den Grund dafür mitteilen. Plattformen wie Elon Musks Nutzer können die Entscheidungen der Plattformen beim Unternehmen, in außergerichtlichen Gremien und schließlich auch vor Gericht anfechten.

Technologieunternehmen müssen die Parameter hinter den Inhaltsempfehlungen ihrer Algorithmen erläutern und mindestens eine algorithmische Option anbieten, die keine Inhalte auf der Grundlage persönlicher Daten von Personen empfiehlt.

4. Ende einiger gezielter Anzeigen

Plattformen wird es untersagt, Menschen mit Online-Anzeigen anzusprechen, die auf sensiblen personenbezogenen Daten basieren, darunter Religion, sexuelle Vorlieben, Gesundheitsinformationen und politische Überzeugungen. Es ist ihnen auch nicht gestattet, personenbezogene Daten von Kindern und Jugendlichen zu sammeln, um ihnen gezielte Werbung anzuzeigen.

Auch sogenannte Dark Patterns – manipulative Designs, die Menschen dazu verleiten, etwas zuzustimmen, was sie eigentlich nicht wollen, wie zum Beispiel die Zustimmung zur Online-Verfolgung – werden ebenfalls verboten.

5. Geben Sie streng gehütete Informationen über ihre Arbeitsweise preis

Alle sechs Monate müssen sich die Plattformen öffnen und lange gehütete Informationen bereitstellen, darunter auch Angaben zu den Mitarbeitern, die ihre Inhalte moderieren – etwa Größe, Fachwissen und gesprochene europäische Sprachen.

Sie müssen den Einsatz künstlicher Intelligenz zur Entfernung illegaler Inhalte und deren Fehlerquote offenlegen. Außerdem müssen sie ihre Bewertungsberichte und Prüfberichte darüber veröffentlichen, wie sie ernsthafte Risiken für die Gesellschaft, einschließlich Bedrohungen der Meinungsfreiheit, der öffentlichen Gesundheit und der Wahlen, begrenzt haben. Sie benötigen ein Repository mit Informationen zu den Anzeigen, die auf ihren Plattformen geschaltet wurden.

Die Aufsichtsbehörden erhalten Zugriff auf die Daten und Algorithmen der Unternehmen, können deren Büros inspizieren und vertrauliche Geschäftsdokumente anfordern. Geprüfte Forscher erhalten außerdem die Möglichkeit, für bestimmte Projekte auf die internen Daten der Plattformen zuzugreifen.


source site

Leave a Reply