Mit dem Climate Panel als Leuchtfeuer geht die Global Group gegen Fehlinformationen vor

Vor zwei Jahren skizzierte Sheldon Himelfarb bei einem von der Nobelstiftung organisierten virtuellen Treffen die Idee, dass die weltweit führenden Wissenschaftler ihre Kräfte bündeln sollten, um Fehlinformationen auf die Art und Weise zu untersuchen, wie Wissenschaftler des Zwischenstaatlichen Ausschusses für Klimaänderungen die globalen Auswirkungen von Kohlenstoffemissionen dokumentierten.

Diese neue Gruppe traf sich am Mittwoch zu ihrer offiziellen Vorstellung in Washington und vereinte mehr als 200 Forscher aus 55 Ländern, die ein ähnliches Gefühl der Dringlichkeit und Besorgnis haben wie die Bedrohung durch die globale Erwärmung. Im ersten Bericht der Gruppe stellten die Forscher die Wirksamkeit der Bekämpfung von Unwahrheiten im Internet mit der Moderation von Inhalten in Frage, einer der häufigsten Strategien zur Bekämpfung von Fehlinformationen, und sagten, dass andere Taktiken auf mehr wissenschaftlichen Beweisen basierten.

„Man muss an die Informationsumgebung auf die gleiche Weise herangehen, wie Wissenschaftler an die Umwelt herangegangen sind“, sagte Herr Himelfarb, Geschäftsführer der Gruppe und Geschäftsführer von PeaceTech Lab, einer Interessenvertretung, die dem United States Institute of Peace in Washington angeschlossen ist.

Die Gruppe, das International Panel on the Information Environment, hat sich in Zürich als Nichtregierungsorganisation registriert, zu einer Zeit, in der der Kampf gegen Fehlinformationen zunehmend in einem breiteren Vertrauensverlust in Regierung, Nachrichtenorganisationen und andere öffentliche Institutionen versinkt.

„Algorithmische Voreingenommenheit, Manipulation und Fehlinformation sind zu einer globalen und existenziellen Bedrohung geworden, die bestehende soziale Probleme verschärft, das öffentliche Leben beeinträchtigt, humanitäre Initiativen lahmlegt und Fortschritte bei anderen ernsthaften Bedrohungen verhindert“, schrieb das Gremium in seiner ersten Ankündigung.

Das Gremium wurde während eines dreitägigen Treffens vorgestellt, das von der Nobelstiftung und der Nationalen Akademie der Wissenschaften organisiert wurde und sich mit der Erosion des öffentlichen Verständnisses und des Vertrauens in die Wissenschaft befasste.

Ein Redner nach dem anderen beschrieb bei dem Treffen einen Ansturm an Desinformation, der zu einer entmutigenden Tatsache im öffentlichen Leben auf der ganzen Welt geworden sei und der mit der jüngsten Explosion der künstlichen Intelligenz bald noch schlimmer werden könnte.

Maria Ressa von den Philippinen, Trägerin des Friedensnobelpreises 2021, veröffentlichte ein Manifest, in dem sie forderte, dass demokratische Regierungen und Big-Tech-Unternehmen transparenter werden, mehr für den Schutz personenbezogener Daten und der Privatsphäre tun und Praktiken beenden, die zu Desinformation und anderen Bedrohungen beitragen unabhängiger Journalismus. Es hat 276 Unterzeichner, die mehr als 140 Organisationen repräsentieren.

Eine Herausforderung bei diesen Bemühungen besteht darin, die immer heftiger werdenden Auseinandersetzungen darüber zu überwinden, was genau Fehlinformationen sind. In den Vereinigten Staaten scheiterten die Bemühungen zu ihrer Bekämpfung am Schutz der freien Meinungsäußerung im Ersten Verfassungszusatz. Die größten Unternehmen haben inzwischen ihren Fokus und ihre Ressourcen von der Bekämpfung von Fehlinformationen verlagert, obwohl neue Plattformen entstanden sind, die versprechen, auf Richtlinien zur Moderation von Inhalten zu verzichten.

Am Mittwoch präsentierten die Forscher des Gremiums die Zusammenfassung ihrer ersten beiden Studien, in denen 4.798 von Experten begutachtete Veröffentlichungen überprüft wurden, in denen irreführende Informationen in sozialen Medien untersucht wurden, und die Ergebnisse zur Wirksamkeit von Gegenmaßnahmen zusammengefasst wurden.

Die Ergebnisse deuten darauf hin, dass die wirksamste Reaktion auf falsche Informationen im Internet darin besteht, Inhalte als „umstritten“ zu kennzeichnen oder Quellen staatlicher Medien zu kennzeichnen und korrigierende Informationen zu veröffentlichen, typischerweise in Form der Entlarvung von Gerüchten und Desinformation.

Weit weniger sicher, so argumentiert der Bericht, sei die Wirksamkeit öffentlicher und staatlicher Bemühungen, Social-Media-Giganten wie Facebook und Twitter unter Druck zu setzen, Inhalte zu entfernen, sowie interne Unternehmensalgorithmen, die beleidigende Konten sperren oder herunterspielen. Das Gleiche gilt für Medienkompetenzprogramme, die Menschen darin schulen, Quellen für Fehlinformationen zu identifizieren.

„Wir sagen nicht, dass Informationskompetenzprogramme nicht funktionieren“, sagte Sebastián Valenzuela, Professor an der Päpstlichen Katholischen Universität von Chile, der die Studie beaufsichtigte. „Was wir sagen ist, dass wir mehr Beweise dafür brauchen, dass sie funktionieren.“

Das inspirierende Modell des Gremiums, der Zwischenstaatliche Ausschuss für Klimaänderungen, wurde 1988 gegründet, als der Klimawandel ebenfalls umstritten war. Seine Wissenschaftler, die unter der Schirmherrschaft der Vereinten Nationen arbeiteten, arbeiteten jahrzehntelang, bevor ihre Einschätzungen und Empfehlungen als wissenschaftlicher Konsens anerkannt wurden.

Wenn es um die digitale Landschaft und die Auswirkungen von Missbräuchen auf die Gesellschaft geht, könnte es noch schwieriger sein, die Wissenschaft der Desinformation konkret zu messen. Der Klimawandel sei „harte Wissenschaft“, sagte Young Mie Kim, Professorin an der University of Wisconsin-Madison und stellvertretende Vorsitzende eines Ausschusses, der sich auf Forschungsmethodik konzentriert.

„Relativ gesehen ist es also einfacher, einige gemeinsame Konzepte und Toolkits zu entwickeln“, sagte Frau Kim. „In den Sozial- oder Geisteswissenschaften ist das schwierig.“

Das neue Gremium verzichtet – zumindest vorerst – auf eine Regierungsrolle. Es ist geplant, regelmäßige Berichte herauszugeben, die nicht einzelne Unwahrheiten überprüfen, sondern vielmehr nach tieferen Kräften hinter der Verbreitung von Desinformation suchen, um die Regierungspolitik zu steuern.

„Es wäre zu schwierig, eine Gruppe von Wissenschaftlern mit der Bewertung der Wahrheitsansprüche in einem bestimmten Schrottstück zu beauftragen“, sagte Philip N. Howard, Direktor des Programms für Demokratie und Technologie der Universität Oxford und Vorsitzender des neuen Gremiums.

„Wir können nach infrastrukturellen Störungen suchen“, fuhr er fort. „Was wir tun können, ist, ein algorithmisches System zu überprüfen, um festzustellen, ob es schlechte oder unbeabsichtigte Ergebnisse liefert. Es ist immer noch schwierig, aber ich denke, dass das Forschungsziel in greifbarer Nähe liegt.“

source site

Leave a Reply