Das KI-Gesetz braucht eine praktische Definition von „unterschwelligen Techniken“ – EURACTIV.com

Während der Entwurf des EU-KI-Gesetzes schädliche „unterschwellige Techniken“ verbietet, definiert er den Begriff nicht – wir schlagen eine umfassendere Definition vor, die problematische Manipulationsfälle erfasst, ohne Regulierungsbehörden oder Unternehmen zu überlasten, schreiben Juan Pablo Bermúdez, Rune Nyrup, Sebastian Deterding und Rafael A . Calvo.

Juan Pablo Bermúdez ist wissenschaftlicher Mitarbeiter am Imperial College London; Rune Nyrup ist außerordentlicher Professor an der Universität Aarhus; Sebastian Deterding ist Lehrstuhlinhaber für Design Engineering am Imperial College London; Rafael A. Calvo ist Lehrstuhlinhaber für Ingenieurdesign am Imperial College London.

Wenn Sie jemals befürchtet haben, dass Unternehmen KI-Systeme nutzen, um Sie zu manipulieren, sind Sie nicht allein. Viele befürchten, dass Social-Media-Feeds, Suchvorgänge, Empfehlungssysteme oder Chatbots unbewusst unsere Emotionen, Überzeugungen oder Verhaltensweisen beeinflussen können.

Der Entwurf des EU-KI-Gesetzes bringt diese Besorgnis zum Ausdruck und erwähnt „unterschwellige Techniken“, die die autonome Wahl „in einer Weise beeinträchtigen, die den Menschen nicht bewusst ist oder die sie, selbst wenn sie sich dessen bewusst ist, nicht kontrollieren oder widerstehen können“ (Erwägungsgrund 16, Fassung des EU-Rats). Artikel 5 verbietet Systeme, die unterschwellige Techniken verwenden, die die Entscheidungen oder Handlungen von Menschen in einer Weise verändern, die voraussichtlich erheblichen Schaden anrichtet.

Dieses Verbot könnte zum Schutz der Nutzer beitragen. Aber wie geschrieben, besteht auch die Gefahr, dass es nicht funktionsfähig ist. Es hängt alles davon ab, wie wir „unterschwellige Techniken“ definieren – was im Gesetzentwurf noch nicht der Fall ist.

Warum enge Definitionen zum Scheitern verurteilt sind

Der Begriff „unterschwellig“ bezieht sich traditionell auf Sinnesreize, die schwach genug sind, um der bewussten Wahrnehmung zu entgehen, aber stark genug, um das Verhalten zu beeinflussen; Beispielsweise wird ein Bild weniger als 50 Millisekunden lang angezeigt.

Die Definition „unterschwelliger Techniken“ in diesem engen Sinne ist problematisch. Erstens sind sich Experten einig, dass unterschwellige Reize bestenfalls sehr kurzlebige Auswirkungen haben und Menschen nur dazu bewegen, Dinge zu tun, zu denen sie bereits motiviert sind.

Darüber hinaus würde dies die meisten problematischen Fälle, die das Verbot begründen, nicht abdecken: Wenn eine Online-Werbung uns beeinflusst, wir Sind sich des Sinnesreizes (der sichtbaren Anzeige) bewusst sein.

Darüber hinaus waren solche gesetzlichen Verbote wirkungslos, da unterschwellige Reize per Definition nicht deutlich sichtbar sind. Wie Neuwirths historische Analyse zeigt, hat Europa unterschwellige Werbung bereits vor mehr als drei Jahrzehnten verboten, doch die Regulierungsbehörden haben kaum jemals Fälle verfolgt.

Wenn man also „unterschwellige Techniken“ eng als unterschwellige Reizpräsentation definiert, wird man wahrscheinlich die meisten besorgniserregenden Manipulationsfälle außer Acht lassen und am Ende als toter Buchstabe enden.

Eine breitere Definition kann Manipulation und praktische Bedenken in Einklang bringen

Wir stimmen mit dem Ausgangspunkt des KI-Gesetzes überein: KI-gesteuerte Einflussnahme ist aufgrund von häufig problematisch fehlendes Bewusstsein.

Allerdings ist die Unwahrnehmung sensorischer Reize nicht das entscheidende Problem. Vielmehr sind Manipulationstechniken, wie wir in einem aktuellen Artikel argumentieren, problematisch, wenn sie Folgendes verbergen:

  • Der Einflussversuch. Vielen Internetnutzern ist nicht bewusst, dass sich Websites auf der Grundlage persönlicher Informationen anpassen, um die „Kundenbindung“, den Verkauf oder andere geschäftliche Belange zu optimieren. Webinhalte sind oft darauf zugeschnitten, uns zu bestimmten Verhaltensweisen zu bewegen, ohne dass wir uns dessen bewusst sind Das Eine solche Anpassung findet statt.
  • Die Einflussmethoden. Selbst wenn wir wissen, dass manche Online-Inhalte Einfluss nehmen wollen, wissen wir oft nicht, warum uns ein bestimmtes Bild oder eine bestimmte Botschaft präsentiert wird – wurde es durch psychografisches Profiling, Nudges oder etwas anderes ausgewählt? Daher können wir uns dessen nicht bewusst sein Wie wir werden beeinflusst.
  • Die Auswirkungen des Einflusses. Empfehlungssysteme sollen unsere Vorlieben lernen und Inhalte vorschlagen, die mit ihnen übereinstimmen, aber sie können letztendlich unsere Vorlieben verändern. Selbst wenn wir wissen, wie wir beeinflusst werden, ignorieren wir möglicherweise dennoch den Einfluss geändert unsere Entscheidungen und Verhaltensweisen.

Um herauszufinden, warum dies wichtig ist, fragen Sie sich: Möchten Sie als Nutzer digitaler Dienste lieber nicht über diese Einflusstechniken informiert werden?

Oder möchten Sie es lieber wissen? Wann Sie werden gezielt beeinflusst; Wie Einflusstricks drücken Ihre psychologischen Knöpfe (das „Nur noch 1 übrig!“-Zeichen zielt auf Ihre Abneigung gegen Verluste ab); Und welche Konsequenzen Einfluss haben (das Zeichen erhöht die Wahrscheinlichkeit, dass Sie impulsiv kaufen)?

Wir schlagen daher folgende Definition vor:

Unterschwellige Techniken zielen darauf ab, das Verhalten einer Person auf eine Weise zu beeinflussen, bei der die Person wahrscheinlich nicht weiß, (1) der Einflussversuch, (2) wie der Einfluss funktioniert oder (3) welche Auswirkungen der Einflussversuch auf die Entscheidungsfindung oder Werte und Überzeugungen hat -Bildungsprozesse.

Diese Definition ist weit genug gefasst, um die meisten Fälle problematischer KI-gesteuerter Einflussnahme zu erfassen; aber nicht so umfassend, dass es bedeutungslos wird, und auch nicht übermäßig schwer in die Praxis umzusetzen. Unsere Definition zielt gezielt ab Techniken: Verfahren, die vorhersehbar zu bestimmten Ergebnissen führen.

Solche Techniken werden beispielsweise bereits in Listen von Nudges und Dark Patterns klassifiziert, sodass Unternehmen diese Listen überprüfen und sicherstellen können, dass sie sie entweder nicht verwenden oder ihre Verwendung offenlegen.

Darüber hinaus verbietet das KI-Gesetz nicht unterschwellige Techniken an sich, aber nur solche, die erheblichen Schaden anrichten können. Daher liegt die eigentliche (Selbst-)Regulierungslast darin, zu prüfen, ob ein System das Risiko erheblicher Schäden erhöht – was wohl bereits Teil der standardmäßigen Sorgfaltspflicht beim Benutzerschutz ist.

Abschluss

Die Standardinterpretation von „unterschwelligen Techniken“ würde das Verbot des KI-Gesetzes für die meisten Formen problematischer manipulativer Einflussnahme irrelevant und in der Praxis wirkungslos machen.

Um sicherzustellen, dass das KI-Gesetz rechtlich praktikabel ist und die regulatorische Unsicherheit verringert, ist daher eine andere, explizite Definition erforderlich – eine, die auf die zugrunde liegenden gesellschaftlichen Bedenken hinsichtlich Manipulation eingeht, ohne die Dienstleister zu überlasten.

Wir glauben, dass unsere Definition genau dieses Gleichgewicht erreicht.

(Der Entwurf des EU-Parlaments fügte Verbote „manipulativer oder irreführender Techniken“ hinzu, die Herausforderungen darstellen, die es wert sind, gesondert erörtert zu werden. Hier behaupten wir, dass Verbote unterschwelliger Techniken, richtig definiert, Manipulationsproblemen entgegenwirken könnten.)


source site

Leave a Reply