Werden Bidens Treffen mit KI-Unternehmen einen Unterschied machen?

Am Freitag gab die Biden-Administration bekannt, dass sieben führende amerikanische Unternehmen im Bereich der künstlichen Intelligenz zugestimmt haben, einige freiwillige Schutzmaßnahmen für ihre Produkte einzuführen. Google, Microsoft, Meta, Amazon, OpenAI, Anthropic und Inflection haben sich verpflichtet, sicherzustellen, dass ihre Produkte den Sicherheitsanforderungen entsprechen, bevor sie sie der Öffentlichkeit zugänglich machen; dass sie externe Experten damit beauftragen, ihre Systeme zu testen und etwaige Schwachstellen zu melden; und dass sie technische Mechanismen entwickeln werden, um Benutzer darüber zu informieren, wenn sie sich KI-generierte Inhalte ansehen, wahrscheinlich über eine Art Wasserzeichensystem. Sie sagten auch, dass sie sich dafür einsetzen, die von KI-Systemen ausgehenden gesellschaftlichen Risiken, einschließlich „schädlicher“ algorithmischer Voreingenommenheit und Datenschutzverletzungen, zu untersuchen und zu mindern. Es gibt drei Möglichkeiten, die Ankündigung zu begrüßen: mit der Hoffnung, dass sie die Menschen vor den gefährlichsten Aspekten der KI schützen könnte, mit Skepsis, dass dies der Fall sein wird, oder mit dem Zynismus, dass es sich um einen Trick von Big Tech handelt, um eine staatliche Regulierung mit echten Konsequenzen zu vermeiden.

Der Deal war der jüngste Versuch des Weißen Hauses, seine begrenzte Macht zu nutzen, um die KI einzudämmen. In den letzten zehn Monaten hat die Regierung einen Entwurf für eine KI-Bill of Rights, eine Durchführungsverordnung zur Beseitigung von Vorurteilen in der Technologie, einschließlich künstlicher Intelligenz, und einen aktualisierten nationalen Strategieplan für Forschung und Entwicklung im Bereich künstlicher Intelligenz herausgegeben, die alle gut durchdacht, aber weitgehend ehrgeizig sind. In dieser Zeit veröffentlichte OpenAI ChatGPT, seinen bahnbrechenden Chatbot, der in der Lage ist, Anfragen mit erstaunlicher Geläufigkeit zu beantworten und Code zu schreiben; Google hat Bard veröffentlicht, seinen eigenen beeindruckenden Chatbot; Microsoft hat ChatGPT zu seiner Suchmaschine Bing hinzugefügt und integriert es in eine Reihe seiner beliebten Produkte; Meta, der Besitzer von Facebook, stellte ein großes Sprachmodell namens LLaMA vor; und sowohl OpenAI als auch das Startup Stability AI führten Plattformen ein, die Bilder aus Textaufforderungen generieren können.

Die sich schnell weiterentwickelnden Fähigkeiten und Kapazitäten der KI haben zu einer kollektiven globalen Panik darüber geführt, was als nächstes kommen könnte: eine KI, die uns bei der Arbeit ersetzt, eine KI, die intelligenter und intellektuell agiler ist als wir; eine unempfindliche KI, die die menschliche Zivilisation vernichtet. Sam Altman, der CEO von OpenAI, warnte den Kongress: „Wenn diese Technologie schief geht, kann sie ziemlich schief gehen“ und forderte den Gesetzgeber auf, sie zu regulieren.

Sie scheinen es zu versuchen. Im Januar führte der Kongressabgeordnete Ted Lieu, ein kalifornischer Demokrat mit einem Abschluss in Informatik, eine unverbindliche Maßnahme ein, die die Mitglieder des Repräsentantenhauses dazu drängt, die KI zu regulieren, die er mithilfe von ChatGPT erstellt hatte. Allein im Juni brachten Mitglieder des Kongresses drei Gesetzesentwürfe ein, die sich mit verschiedenen Aspekten der KI befassten, alle mit Unterstützung beider Parteien. Eine davon würde verlangen, dass die USA Benutzer informieren, wenn sie mit künstlicher Intelligenz in der Regierungskommunikation interagieren, und ein Berufungsverfahren einrichten, um KI-vermittelte Entscheidungen anzufechten, während eine andere vorschlägt, Social-Media-Unternehmen für die Verbreitung schädlichen Materials, das durch künstliche Intelligenz erstellt wurde, verantwortlich zu machen, indem ihnen der Schutz gemäß Abschnitt 230 verweigert wird, dem Teil des Communications Decency Act, der Technologieplattformen von der Haftung für das, was sie veröffentlichen, immunisiert. Lieu schlug gemeinsam mit Kollegen auf beiden Seiten die Einrichtung einer zwanzigköpfigen, überparteilichen Kommission vor, die KI überprüfen, empfehlen und Vorschriften erlassen soll

Während diese Vorschläge den Gesetzgebungsprozess durchlaufen, hat der Mehrheitsführer im Senat, Chuck Schumer, eine umsichtigere Haltung eingenommen. In einer kürzlichen Ansprache am Center for Strategic and International Studies skizzierte er einen Plan, um Gesetzgeber über neue Technologien auf den neuesten Stand zu bringen, indem er mindestens neun Expertengremien einberuft, um ihnen einen Crashkurs in KI zu geben und ihnen bei der Ausarbeitung fundierter Rechtsvorschriften zu helfen. (Man geht davon aus, dass er zum Teil darauf abzielt, die peinliche Ignoranz zu vermeiden, die im Laufe der Jahre an den Tag gelegt wurde, als Kongressabgeordnete über die Regulierung sozialer Medien diskutierten.) Es ist jedoch fraglich, ob Schumers gute Absichten vor der nächsten Wahl zu substanziellen Ergebnissen führen werden.

Unterdessen geht die EU entschlossener vor. Im Mai wurde der Ausschuss für das umfassende Gesetz über künstliche Intelligenz des Europäischen Parlaments verlassen, und das gesamte Parlament stimmte dafür, seine Fassung des Gesetzentwurfs dem Rat der Europäischen Union vorzulegen, der die endgültigen Einzelheiten festlegen wird. Wenn alles nach Plan verläuft, wird mit der Umsetzung bis zum Jahresende gerechnet. Zu den Bestimmungen gehören ein Verbot der Verwendung von Gesichtserkennung und die Verpflichtung, dass Chatbot-Ersteller das urheberrechtlich geschützte Material offenlegen, das zum Training ihrer Modelle verwendet wird. (Dies ist in den Vereinigten Staaten zu einem Streitpunkt geworden; kürzlich hat sich die Komikerin Sarah Silverman den Klägern in einer Sammelklage angeschlossen, in der sie OpenAI und Meta vorwirft, Urheberrechte zu verletzen, indem sie ihre schriftlichen Arbeiten ohne Erlaubnis verwenden.) Im weitesten Sinne wird das Gesetz den Einsatz künstlicher Technologien verbieten, die ein „inakzeptables Risiko für die Sicherheit der Menschen“ darstellen. Wenn es angenommen wird, wird es der weltweit erste umfassende Rechtsrahmen für KI sein

Da hierzulande nichts Vergleichbares auf dem Programm stand, schien es wahrscheinlich, dass US-amerikanische Technologieunternehmen ihre Produkte unter allen Umständen unvermindert weiterentwickeln würden. Deshalb waren die Nachrichten vom letzten Freitag bedeutsam. Hier waren Google, Microsoft, Meta, Amazon, OpenAI, Anthropic und Inflection und schienen einzuräumen, dass sie ihre KI-Plattformen möglicherweise nicht alleine steuern können. In einem Blogbeitrag, der am Tag der Ankündigung veröffentlicht wurde, fasste Brad Smith, der Präsident von Microsoft, das Ziel der Vereinbarung in drei Worten zusammen: „sicher, geschützt, vertrauenswürdig.“

Aber es gibt ein Paradox: Alle Unterzeichner haben bereits generative KI-Systeme veröffentlicht, daher ist es schwer vorstellbar, wie sie die Öffentlichkeit vor den Gefahren schützen wollen, die diese bereits mit sich bringen, wie etwa das Schreiben von bösartigem Code oder die Verbreitung schädlicher Fehlinformationen; In der Vereinbarung wird nicht erwähnt, dass diese Produkte vom Markt genommen werden sollen, bis sie von Experten überprüft wurden. (Es ist auch nicht klar, wer diese Experten sein werden, wie sie ausgewählt werden, ob dieselben Experten mit der Untersuchung aller Systeme beauftragt werden und nach welchem ​​Maß sie das Risiko bestimmen werden.) Nur wenige Tage vor der Ankündigung des Weißen Hauses veröffentlichte Meta eine Open-Source-Version seines großen Sprachmodells LLaMA2. Das Unternehmen gab an, dass es für Forschungs- und kommerzielle Zwecke kostenlos zur Verfügung steht, was bedeutet, dass Meta möglicherweise nicht mehr kontrollieren kann, wer Zugriff darauf hat, sobald es in freier Wildbahn ist. Laut Dame Wendy Hall, Regius-Professorin für Informatik an der University of Southampton, ist Open-Source-KI „ein bisschen so, als würde man den Menschen eine Vorlage für den Bau einer Atombombe geben.“

Die Verpflichtung der Unternehmen, das von ihren KI-Produkten generierte Material mit einem Wasserzeichen zu versehen, ist eine willkommene und notwendige Sicherheitsvorkehrung. Wie mir Anne Neuberger, stellvertretende nationale Sicherheitsberaterin für Cyber- und neue Technologien, sagte, wird dies „die Gefahr von Betrug und Täuschung bei der Verbreitung von Informationen verringern, da es nun Möglichkeiten geben wird, generierte Inhalte bis zu ihrer Quelle zurückzuverfolgen.“ Aber es ist nicht einfach. Laut Sam Gregory, dem Geschäftsführer der gemeinnützigen Organisation Witness, die Technologie zum Schutz der Menschenrechte einsetzt, „besteht ein Teil der Herausforderung darin, dass es keine gemeinsame Definition von Wasserzeichen gibt“ und viele Wasserzeichen „im Allgemeinen leicht herausgeschnitten werden können“. (Sie könnten auch gefälscht oder manipuliert sein.) Gregory erwähnte einen informativeren Ansatz von Microsoft, der eine detaillierte Metadatenspur erstellen würde, die den Verlauf eines bestimmten Bildes widerspiegelt. Er argumentierte jedoch, dass Offenlegungen nicht die Personen preisgeben sollten, die KI-Tools nutzen. „Menschen dazu zu verpflichten oder anzustupsen, die Herkunft der Medien zu bestätigen, scheint vielversprechend, bis man diesen Ansatz in einen globalen Kontext von Datenschutzrisiken, Dissidentenstimmen und autoritären Gesetzen stellt, die auf freie Meinungsäußerung abzielen.“

Der vielleicht umstrittenste Teil der ausgehandelten Vereinbarung ist das, was die Unternehmen größtenteils vereinbart haben nicht teilen: die Parameter, die als „Gewichte“ ihrer Algorithmen bekannt sind. Diese bestimmen, wie das Modell das Quellmaterial sortiert und Antworten auf Abfragen generiert. Einige argumentieren, dass Geheimhaltung in diesem Bereich eine gute Sache sei: Neuberger sagte mir, dass die Abschirmung der Modellgewichte vor der Öffentlichkeit es „trotz Open-Sourcing“ für böswillige Akteure schwieriger machen wird, „modernste Modelle zu stehlen und sie so zu verfeinern, dass sie besser Malware oder andere KI-gesteuerte Ansätze für neuartige Cyberangriffe generieren können“. Aber Kit Walsh, ein leitender Anwalt der Electronic Frontier Foundation, wies darauf hin, dass das Zurückhalten wichtiger Informationen über die Konstruktion der Modelle die Transparenz untergräbt und Quellen der Voreingenommenheit verschleiern könnte. „Die Geheimhaltung der Details von KI-Technologien wird wahrscheinlich gutgläubige Forscher behindern, die das öffentliche Interesse sowie den Wettbewerb und die offene Wissenschaft schützen wollen“, schrieb er in einer E-Mail. „Dies gilt insbesondere, wenn KI eingesetzt wird, um Entscheidungen über Wohnen, Beschäftigung, Zugang zu Medikamenten, strafrechtliche Bestrafung und eine Vielzahl anderer Anwendungen zu treffen, bei denen öffentliche Rechenschaftspflicht unerlässlich ist.“

Die Einhaltung der Vereinbarung ist freiwillig und es gibt keinen Durchsetzungsmechanismus, um diese sieben – oder andere – Unternehmen zur Rechenschaft zu ziehen. Es könnte ein kleiner Schritt auf dem wahrscheinlich langen und kurvenreichen Weg zu einer konsequenten staatlichen Regulierung sein. Es könnte für Big Tech auch eine Möglichkeit sein, ihre eigenen Regeln aufzustellen. Im Mai kritisierte Altman vor britischem Publikum die von der EU vorgeschlagenen KI-Regulierungen. Er warnte davor, dass bei zu strengen Maßnahmen die Gefahr bestehe, dass das Unternehmen seine Tätigkeit in Europa einstellen könnte. Seine Ausführungen waren ein Vorgeschmack auf die vor uns liegenden Hindernisse. Ein Unternehmen, dem die Regeln nicht gefallen, könnte damit drohen, zu packen und zu gehen. Dann was? ♦

source site

Leave a Reply