Menschen neigen möglicherweise eher dazu, durch KI erzeugte Desinformationen zu glauben

Diese Glaubwürdigkeitslücke sei zwar gering, aber besorgniserregend, da das Problem der KI-generierten Desinformation voraussichtlich erheblich zunehmen werde, sagt Giovanni Spitale, der Forscher an der Universität Zürich, der die Studie leitete, die heute in Science Advances erschien.

„Die Tatsache, dass KI-generierte Desinformation nicht nur billiger und schneller, sondern auch effektiver ist, bereitet mir Albträume“, sagt er. Er glaubt, dass der Unterschied noch größer wäre, wenn das Team die Studie mit dem neuesten großen Sprachmodell von OpenAI, GPT-4, wiederholen würde, wenn man bedenkt, wie viel leistungsfähiger GPT-4 ist.

Um unsere Anfälligkeit für verschiedene Textarten zu testen, wählten die Forscher gängige Desinformationsthemen, darunter Klimawandel und Covid. Dann baten sie das große Sprachmodell GPT-3 von OpenAI, 10 echte und 10 falsche Tweets zu generieren, und sammelten eine Zufallsstichprobe sowohl wahrer als auch falscher Tweets von Twitter.

Als nächstes rekrutierten sie 697 Personen, um an einem Online-Quiz teilzunehmen, bei dem beurteilt wurde, ob Tweets von KI generiert oder von Twitter gesammelt wurden und ob sie korrekt waren oder Desinformation enthielten. Sie fanden heraus, dass die Wahrscheinlichkeit der Teilnehmer, von Menschen geschriebene falsche Tweets zu glauben, um 3 % geringer war als solche, die von KI geschrieben wurden.

Die Forscher sind sich nicht sicher, warum Menschen Tweets, die von KI verfasst wurden, eher glauben könnten. Aber die Art und Weise, wie GPT-3 Informationen anordnet, könnte laut Spitale etwas damit zu tun haben.

„Der Text von GPT-3 ist im Vergleich zum organischen Text tendenziell etwas strukturierter [human-written] Text“, sagt er. „Aber es ist auch verdichtet, sodass es einfacher zu verarbeiten ist.“

Der generative KI-Boom stellt leistungsstarke, zugängliche KI-Tools in die Hände aller, auch der schlechten Akteure. Modelle wie GPT-3 können überzeugend wirkende Falschtexte generieren, mit denen schnell und kostengünstig falsche Narrative für Verschwörungstheoretiker und Desinformationskampagnen generiert werden könnten. Die Waffen zur Bekämpfung des Problems – KI-Tools zur Texterkennung – befinden sich noch in einem frühen Entwicklungsstadium und viele sind nicht ganz genau.

OpenAI ist sich bewusst, dass seine KI-Tools als Waffe eingesetzt werden könnten, um groß angelegte Desinformationskampagnen durchzuführen. Obwohl dies gegen ihre Richtlinien verstößt, veröffentlichte das Unternehmen im Januar einen Bericht, in dem es warnte, dass es „so gut wie unmöglich sei, sicherzustellen, dass große Sprachmodelle niemals zur Generierung von Desinformation verwendet werden“. OpenAI reagierte nicht sofort auf eine Bitte um Stellungnahme.

source site

Leave a Reply