Generative KI macht ein altes Problem noch viel schlimmer

Hören Sie sich diesen Artikel an

Produziert von ElevenLabs und News Over Audio (NOA) unter Verwendung von KI-Erzählung.

Anfang des Jahres wurden wiederholt sexuell eindeutige Bilder von Taylor Swift auf Dieser Fall spiegelt viele andere scheinbar ähnliche Beispiele wider, darunter gefälschte Bilder, die die Verhaftung des ehemaligen Präsidenten Donald Trump zeigen, KI-generierte Bilder von schwarzen Wählern, die Trump unterstützen, und erfundene Bilder von Dr. Anthony Fauci.

Es besteht die Tendenz, dass sich die Berichterstattung in den Medien auf das Thema konzentriert Quelle dieser Bilder, denn generative KI ist eine neuartige Technologie, die viele Menschen immer noch zu verstehen versuchen. Diese Tatsache verschleiert jedoch den Grund, warum die Bilder relevant sind: Sie verbreiten sich in sozialen Netzwerken.

Facebook, Instagram, TikTok, X, YouTube und die Google-Suche bestimmen, wie Milliarden Menschen täglich das Internet erleben. Diese Tatsache hat sich im Zeitalter der generativen KI nicht geändert. Tatsächlich wird die Verantwortung dieser Plattformen als Gatekeeper immer deutlicher, da es für immer mehr Menschen einfacher wird, auf Befehl Texte, Videos und Bilder zu produzieren. Damit synthetische Medien Millionen von Aufrufen erreichen können – wie es die Swift-Bilder in nur wenigen Stunden taten –, benötigen sie riesige, aggregierte Netzwerke, die es ihnen ermöglichen, ein erstes Publikum zu identifizieren und es dann zu verbreiten. Da die Menge der verfügbaren Inhalte mit der breiteren Nutzung generativer KI zunimmt, wird die Rolle der sozialen Medien als Kurator noch wichtiger.

Online-Plattformen sind Märkte für die Aufmerksamkeit einzelner Nutzer. Ein Benutzer wird möglicherweise mit viel, viel mehr Beiträgen konfrontiert, als er oder sie möglicherweise sehen kann. Auf Instagram beispielsweise wählen die Algorithmen von Meta für jeden Beitrag, der tatsächlich im Feed eines Benutzers auftaucht, aus unzähligen Inhalten aus. Mit dem Aufkommen der generativen KI stehen Plattformen möglicherweise um eine Größenordnung mehr potenzielle Optionen zur Auswahl – was bedeutet, dass die Ersteller jedes einzelnen Videos oder Bilds umso aggressiver um die Zeit und Aufmerksamkeit des Publikums konkurrieren werden. Schließlich bleibt den Nutzern nicht mehr Zeit zum Verbringen, auch wenn die Menge der ihnen zur Verfügung stehenden Inhalte schnell wächst.

Was wird also wahrscheinlich passieren, wenn generative KI immer allgegenwärtiger wird? Ohne große Änderungen sollten wir mit mehr Fällen wie den Swift-Bildern rechnen. Aber wir sollten auch mehr davon erwarten alles. Der Wandel ist im Gange, da eine Flut synthetischer Medien Suchmaschinen wie Google zum Stolpern bringt. KI-Tools können die Hürden für Content-Ersteller senken, indem sie die Produktion schneller und kostengünstiger machen, aber die Realität ist, dass die meisten Menschen noch mehr Schwierigkeiten haben werden, auf Online-Plattformen gesehen zu werden. Beispielsweise werden Medienorganisationen nicht exponentiell mehr Nachrichten zu berichten haben, selbst wenn sie KI-Tools einsetzen, um die Bereitstellung zu beschleunigen und die Kosten zu senken. Dadurch nehmen ihre Inhalte proportional weniger Platz ein. Bereits jetzt erhält ein kleiner Teil der Inhalte den überwiegenden Anteil der Aufmerksamkeit: Auf TikTok und YouTube beispielsweise konzentriert sich der Großteil der Aufrufe auf einen sehr kleinen Prozentsatz der hochgeladenen Videos. Generative KI könnte die Kluft nur vergrößern.

Um diese Probleme anzugehen, könnten Plattformen ihre Systeme explizit ändern, um menschliche Urheber zu begünstigen. Das hört sich einfacher an, als es ist, und Technologieunternehmen stehen bereits wegen ihrer Rolle bei der Entscheidung, wer Aufmerksamkeit erhält und wer nicht, in der Kritik. Der Oberste Gerichtshof hat kürzlich einen Fall angehört, in dem entschieden wird, ob radikale staatliche Gesetze aus Florida und Texas Plattformen funktional dazu verpflichten können, alle Inhalte gleich zu behandeln, selbst wenn dies bedeutet, dass Plattformen gezwungen werden, aktiv falsches, minderwertiges oder anderweitig anstößiges politisches Material gegen die Plattformen zu veröffentlichen Wünsche der meisten Nutzer. Im Mittelpunkt dieser Konflikte steht das Konzept der „freien Reichweite“, das angebliche Recht, dass Ihre Rede von Plattformen wie YouTube und Facebook beworben wird, auch wenn es keinen „neutralen“ Algorithmus gibt. Sogar chronologische Feeds – die einige Leute befürworten – priorisieren definitiv aktuelle Inhalte vor den Vorlieben der Benutzer oder anderen subjektiven Werteinschätzungen. Die Newsfeeds, Standardempfehlungen „Up Next“ und Suchergebnisse machen Plattformen nützlich.

Die bisherigen Reaktionen der Plattformen auf ähnliche Herausforderungen sind nicht ermutigend. Letztes Jahr ersetzte Elon Musk das Verifizierungssystem von Das unmittelbare Ergebnis war vorhersehbar: Opportunistischer Missbrauch durch Einflussnehmer und Betrüger sowie ein verschlechterter Feed für die Benutzer. Meine eigenen Untersuchungen ergaben, dass es Facebook nicht gelungen ist, die Aktivität missbräuchlicher Superuser einzuschränken, die einen großen Einfluss auf die algorithmische Werbung hatten. (Das Unternehmen bestritt einen Teil dieser Feststellung.) TikTok legt viel mehr Wert auf das virale Engagement bestimmter Videos als auf den Kontoverlauf, wodurch es für neue Konten mit geringerer Glaubwürdigkeit einfacher wird, große Aufmerksamkeit zu erregen.

Was ist also zu tun? Es gibt drei Möglichkeiten.

Erstens können Plattformen ihren überwältigenden Fokus auf Engagement (die Menge an Zeit und Aktivität, die Benutzer pro Tag oder Monat verbringen) reduzieren. Ob durch Regulierung oder unterschiedliche Entscheidungen von Produktführern, eine solche Änderung würde schlechte Anreize für Spam und das Hochladen minderwertiger, KI-erstellter Inhalte direkt verringern. Der vielleicht einfachste Weg, dies zu erreichen, besteht darin, die direkte Benutzerbewertung von Inhalten in Ranking-Algorithmen stärker zu priorisieren. Eine andere Möglichkeit wäre die Heraufstufung extern validierter Ersteller, etwa von Nachrichtenseiten, und die Herabstufung der Konten missbräuchlicher Benutzer. Andere Designänderungen würden ebenfalls hilfreich sein, beispielsweise die Bekämpfung von Spam durch die Einführung strengerer Ratenbeschränkungen für neue Benutzer.

Zweitens sollten wir Instrumente des öffentlichen Gesundheitswesens nutzen, um regelmäßig zu bewerten, wie sich digitale Plattformen auf gefährdete Bevölkerungsgruppen wie Teenager auswirken, und auf Produktrücknahmen und -änderungen bestehen, wenn die Schäden zu groß sind. Dieser Prozess würde eine größere Transparenz über die Produktdesign-Experimente erfordern, die Facebook, TikTok, YouTube und andere bereits durchführen – etwas, das uns Einblick geben würde, wie Plattformen Kompromisse zwischen Wachstum und anderen Zielen eingehen. Sobald wir mehr Transparenz haben, können Experimente durchgeführt werden, bei denen unter anderem Metriken wie die Beurteilung der psychischen Gesundheit einbezogen werden. Gesetzesvorschläge wie der Platform Accountability and Transparency Act, der qualifizierten Forschern und Akademikern in Zusammenarbeit mit der National Science Foundation und der Federal Trade Commission den Zugriff auf viel mehr Plattformdaten ermöglichen würde, bieten einen wichtigen Ausgangspunkt.

Drittens können wir eine direkte Produktintegration zwischen Social-Media-Plattformen und großen Sprachmodellen in Betracht ziehen – wir sollten dies jedoch mit Blick auf die Risiken tun. Ein Ansatz, der Aufmerksamkeit erregt hat, ist die Fokussierung auf die Kennzeichnung: eine Behauptung, dass Vertriebsplattformen jeden Beitrag, der mit einem LLM erstellt wurde, öffentlich kennzeichnen sollten. Erst letzten Monat hat Meta angedeutet, dass es sich in diese Richtung bewegt, mit automatisierten Labels für Beiträge, von denen es vermutet, dass sie mit generativen KI-Tools erstellt wurden, sowie Anreizen für Poster, selbst offenzulegen, ob sie KI zur Erstellung von Inhalten verwendet haben. Aber das ist mit der Zeit ein Verlustgeschäft. Je besser LLMs werden, desto weniger wird jeder – auch Plattform-Gatekeeper – in der Lage sein, zwischen Echtem und Synthetischem zu unterscheiden. Tatsächlich wird sich das, was wir als „echt“ betrachten, ändern, ebenso wie die Verwendung von Werkzeugen wie Photoshop zum Airbrushen von Bildern im Laufe der Zeit stillschweigend akzeptiert wurde. Natürlich könnten die künftigen Walled Gardens von Vertriebsplattformen wie YouTube und Instagram erfordern, dass Inhalte eine validierte Herkunft haben, einschließlich Labels, um leicht zugänglich zu sein. Es scheint sicher, dass dieser Ansatz zumindest auf einigen Plattformen in irgendeiner Form umgesetzt wird und sich an Benutzer richtet, die ein kuratierteres Benutzererlebnis wünschen. Aber was würde das im Maßstab bedeuten? Es würde ein ausgeglichenes Ergebnis bedeuten größer Betonung und Vertrauen auf die Entscheidungen der Vertriebsnetze und noch stärkeres Vertrauen auf deren Gatekeeping.

Diese Ansätze greifen alle auf eine Kernrealität zurück, die wir im letzten Jahrzehnt erlebt haben: In einer Welt nahezu unbegrenzter Produktion hoffen wir vielleicht auf mehr Macht in den Händen des Verbrauchers. Aber aufgrund der unmöglichen Größenordnung erleben Benutzer tatsächlich eine Entscheidungslähmung, die die eigentliche Macht in die Hände des Plattformstandards legt.

Obwohl es zweifellos Angriffe geben wird, die dringend Aufmerksamkeit erfordern – von staatlich geschaffenen Netzwerken koordinierter unauthentischer Nutzer, von profitgierigen Nachrichtenproduzenten, von führenden politischen Kandidaten –, ist dies nicht der Moment, die größeren Dynamiken aus den Augen zu verlieren, die sich abspielen unsere Aufmerksamkeit.


source site

Leave a Reply