Nick Clegg, Präsident für globale Angelegenheiten bei Meta: KI-generierte Wahl-Fehlinformationen gibt es noch nicht in systemischem Ausmaß

Da die Wähler dieses Jahr in mehr als 50 Ländern zur Wahl gehen werden, haben Experten Alarm geschlagen wegen der durch KI erzeugten politischen Desinformation und der Aussicht, dass böswillige Akteure generative KI und soziale Medien nutzen werden, um Wahlen zu stören. Meta wurde bereits zuvor wegen seiner Richtlinien zur Moderation von Inhalten im Zusammenhang mit früheren Wahlen kritisiert – zum Beispiel, als es ihm nicht gelang, die Randalierer vom 6. Januar daran zu hindern, sich auf seinen Plattformen zu organisieren.

Clegg verteidigte die Bemühungen des Unternehmens, die Organisierung gewalttätiger Gruppen zu verhindern, betonte aber auch, wie schwierig es sei, Schritt zu halten. „Dies ist ein äußerst kontroverser Raum. Du spielst Whack-a-Mole, ganz ehrlich. Wenn man eine Gruppe entfernt, benennen sie sich um, benennen sich um und so weiter“, sagte er.

Clegg argumentierte, dass das Unternehmen im Vergleich zu 2016 jetzt „völlig anders“ sei, wenn es um die Moderation von Wahlinhalten gehe. Seitdem habe es über 200 „Netzwerke koordinierten unauthentischen Verhaltens“ entfernt, sagte er. Das Unternehmen verlässt sich jetzt auf Faktenprüfer und KI-Technologie, um unerwünschte Gruppen auf seinen Plattformen zu identifizieren.

Anfang des Jahres kündigte Meta an, KI-generierte Bilder auf Facebook, Instagram und Threads zu kennzeichnen. Meta hat damit begonnen, solchen Bildern sichtbare Markierungen sowie unsichtbare Wasserzeichen und Metadaten in der Bilddatei hinzuzufügen. Die Wasserzeichen werden Bildern hinzugefügt, die mit den generativen KI-Systemen von Meta erstellt wurden oder unsichtbare Industriestandardmarkierungen tragen. Das Unternehmen gibt an, dass seine Maßnahmen im Einklang mit den Best Practices stehen, die von der Partnership on AI, einer gemeinnützigen KI-Forschungsorganisation, festgelegt wurden.

Gleichzeitig räumte Clegg jedoch ein, dass Tools zur Erkennung von KI-generierten Inhalten immer noch unvollkommen und unausgereift seien. Wasserzeichen in KI-Systemen werden nicht branchenweit übernommen und sind leicht zu manipulieren. Sie lassen sich auch nur schwer robust in KI-generierten Texten, Audio- und Videoinhalten implementieren.

Letztlich dürfte das keine Rolle spielen, sagte Clegg, denn die Systeme von Meta sollten in der Lage sein, Fehl- und Desinformationen unabhängig von ihrer Herkunft zu erkennen und zu erkennen.

„KI ist dabei Schwert und Schild“, sagte er.

Clegg verteidigte auch die Entscheidung des Unternehmens, Anzeigen zuzulassen, in denen behauptet wird, die US-Wahl 2020 sei manipuliert worden. Er wies darauf hin, dass derartige Behauptungen weltweit üblich seien, und sagte, es sei „nicht machbar“, dass Meta vergangene Wahlen erneut aufarbeitet. Erst diesen Monat schrieben acht Außenminister einen Brief an Meta-CEO Mark Zuckerberg, in dem sie argumentierten, dass die Anzeigen immer noch gefährlich sein könnten und das Potenzial hätten, das öffentliche Vertrauen in die Wahlen und die Sicherheit einzelner Wahlhelfer weiter zu gefährden.

Sie können das vollständige Interview mit Nick Clegg und sehen MIT Technology Review Chefredakteurin Amy Nordrum unten.

source site

Leave a Reply