EU-Gesetzgeber stimmen für das Verbot von Online-Werbung, die sich an Kinder richtet, inmitten breiterer technischer Durchgriffe – POLITICO

Drücken Sie Play, um diesen Artikel anzuhören

Straßburg – Der europäische Gesetzgeber hat am Dienstag für das Verbot von Online-Werbung, die sich an Kinder richtet, gestimmt und ein hartes Durchgreifen gegen Big Tech-Plattformen und deren Richtlinien zur Inhaltsmoderation eingeleitet.

Das vorgeschlagene Verbot wurde in einen Entwurf des EU-Regelwerks zur Moderation von Inhalten, dem Digital Services Act, aufgenommen, dem der Binnenmarktausschuss des Europäischen Parlaments mit großer Mehrheit zugestimmt hat.

Der Text des Parlaments, der in den kommenden Monaten noch verhandelt werden soll, enthält eine Linie, die darauf abzielt, Technologieunternehmen wie Facebook, Google, TikTok und andere daran zu hindern, Unternehmen zu erlauben, Minderjährige über ihre Plattformen anzusprechen.

Der Schritt ist Teil eines breiter angelegten Vorstoßes in ganz Europa zur Einführung von Altersüberprüfungssystemen online, damit Kinder nicht auf einige Plattformen zugreifen können, deren Inhalte für sie schädlich sind, einschließlich Pornografie.

„Wir wollen Minderjährige über Plattformen schützen“, sagte Christel Schaldemose, die für die Akte zuständige dänische Sozialdemokratin, gegenüber POLITICO.

Sie sagte, das Gesetz müsse noch verfeinert werden, um sicherzustellen, dass die Identifizierung von Minderjährigen nicht die Datenschutzrechte beeinträchtigt, fügte jedoch hinzu, dass „die Plattformen heute bereits über tatsächliche Kenntnisse darüber verfügen, wer Minderjährige sind“.

Das vor einem Jahr von der Europäischen Kommission vorgeschlagene Gesetz über digitale Dienste (DSA) zielt darauf ab, europaweite Regeln für Online-Plattformen zu schaffen. Der Gesetzentwurf zielt darauf ab, gegen illegale Inhalte vorzugehen, Online-Werbung zu regulieren und Transparenzmaßnahmen für die Algorithmen von Plattformen aufzuerlegen.

Das Verbot gezielter Werbung für Kinder könnte in zukünftigen Verhandlungen zum Abschluss des Gesetzes zu einem heiklen Thema werden.

Über den Text des Ausschusses wird auf der Plenarsitzung des Parlaments voraussichtlich im Januar abgestimmt. Der Gesetzentwurf steht dann zu Dreierverhandlungen zwischen dem Parlament, der Kommission und dem EU-Rat, der die EU-Regierungen vertritt, an. Die endgültigen Regeln könnten bereits 2023 in Kraft treten.

Die EU-Länder haben die gezielte Werbung in ihrer im November vereinbarten Position nicht eingeschränkt, aber Schaldemose sagte, sie sei zuversichtlich, dass die Hauptstädte davon überzeugt werden könnten, sie in den endgültigen Text aufzunehmen.

Die Abgeordneten stimmten auch dafür, manipulative Designs zu verbieten, um Benutzer dazu zu bringen, dem Online-Tracking zuzustimmen, bekannt als “dunkle Muster”, und sie räumten den Benutzern das Recht ein, zu wählen, ob ihnen gezielte Werbung angezeigt werden soll. Große Plattformen mit über 45 Millionen europäischen Nutzern wie Facebook und Google müssen den Nutzern auch die Möglichkeit geben, das Tracking abzulehnen, um personalisierte Inhalte auf ihren Feeds und Plattformen anzuzeigen.

Der Gesetzgeber hat auch Online-Marktplätze wie Amazon mehr dazu verpflichtet, stichprobenartige Kontrollen von Produkten durchzuführen, die von Drittanbietern über deren Online-Shop verkauft werden, und Benutzer zu informieren, wenn sie illegale Waren gekauft haben – und sie zusätzlich zu entfernen.

In dem Regelentwurf heißt es auch, dass Technologieunternehmen und Regulierungsbehörden in der Lage sein sollten, Anordnungen europäischer Behörden anzufechten, bestimmte illegale Inhalte zu entfernen oder Informationen über Benutzer anzufordern. In der Zwischenzeit würden Benutzer befugt sein, Wiedergutmachung und Entschädigung von Technologieunternehmen zu verlangen, wenn sie ernsthaften Schaden bei ihren Diensten erleiden.

Der Gesetzgeber möchte auch, dass Technologieunternehmen wie Facebook und Googles YouTube sich über die Art und Weise öffnen, wie sie Inhalte moderieren – eine langjährige Forderung von politischen Entscheidungsträgern und NGOs, die nun gesetzlich verankert wäre.

Unternehmen müssten die Nutzer informieren, wenn sie Regeln und Nutzungsvereinbarungen ändern, und angeben, wie viele Mitarbeiter an der Moderation von Inhalten für jede europäische Sprache arbeiten. Große Plattformen müssten auch die Risiken, die sie für die Gesellschaft darstellen, bewerten und die Verbreitung von Desinformationen auf ihren Seiten eindämmen.

.
source site

Leave a Reply