Der Kongress möchte die KI wirklich regulieren, aber niemand scheint zu wissen, wie

Im Februar 2019 gab OpenAI, ein wenig bekanntes Unternehmen für künstliche Intelligenz, bekannt, dass sein Textgenerator für große Sprachen, GPT-2, „aufgrund unserer Bedenken hinsichtlich böswilliger Anwendungen der Technologie“ nicht der Öffentlichkeit zugänglich gemacht werde. ” Zu den Gefahren gehörten laut Angaben des Unternehmens die Möglichkeit irreführender Nachrichtenartikel, Online-Identitätsfälschungen und die Automatisierung der Produktion missbräuchlicher oder gefälschter Social-Media-Inhalte sowie von Spam- und Phishing-Inhalten. Open AI schlug daher vor, dass „Regierungen die Ausweitung oder den Start von Initiativen in Betracht ziehen sollten, um die gesellschaftlichen Auswirkungen und die Verbreitung von KI-Technologien systematischer zu überwachen und den Fortschritt der Fähigkeiten solcher Systeme zu messen.“

Diese Woche, vier Jahre nach dieser Warnung, trafen sich Mitglieder des Justizunterausschusses für Datenschutz, Technologie und Recht des Senats, um über „Aufsicht über KI: Regeln für künstliche Intelligenz“ zu diskutieren. Wie bei anderen Tech-Anhörungen auf dem Hill fand auch diese statt, nachdem eine neue Technologie bereits im Umlauf war, die unser soziales und politisches Leben grundlegend verändern könnte. Wie viele Amerikaner machten sich die Gesetzgeber im März Sorgen über die Fallstricke der künstlichen Intelligenz mit großen Sprachmodellen, als OpenAI GPT-4 veröffentlichte, die neueste und ausgefeilteste Version seines Textgenerators. Gleichzeitig fügte das Unternehmen es einem Chatbot hinzu, den es im November gestartet hatte und der GPT nutzte, um Fragen im Gespräch zu beantworten, und zwar mit einem Vertrauen, das nicht immer gerechtfertigt ist, da GPT dazu neigt, Dinge zu erfinden.

Trotz dieser prekären Lage entwickelte sich ChatGPT innerhalb von zwei Monaten zur am schnellsten wachsenden Verbraucheranwendung in der Geschichte und erreichte Anfang dieses Jahres hundert Millionen monatliche Nutzer. Es hat mehr als eine Milliarde monatliche Seitenaufrufe. OpenAI wurde ebenfalls veröffentlicht DALL-E, ein Bildgenerator, der aus einer beschreibenden verbalen Eingabeaufforderung Originalbilder erstellt. Wie GPT, DALL-E und andere Text-zu-Bild-Tools haben das Potenzial, die Grenze zwischen Realität und Erfindung zu verwischen, eine Aussicht, die unsere Anfälligkeit für Täuschung erhöht. Kürzlich veröffentlichte die Republikanische Partei die erste vollständig KI-generierte Angriffsanzeige; Es zeigt scheinbar tatsächlich dystopische Bilder aus der zweiten Amtszeit der Biden-Regierung.

An der Anhörung im Senat nahmen drei Experten teil: Sam Altman, der CEO von OpenAI; Christina Montgomery, Chief Privacy and Trust Officer bei IBM; und Gary Marcus, emeritierter Professor an der New York University und KI-Unternehmer. Aber es war Altman, der die meiste Aufmerksamkeit auf sich zog. Hier war der Chef des Unternehmens mit dem heißesten technischen Produkt – eines, das das Potenzial hat, die Art und Weise, wie Geschäfte abgewickelt werden, wie Studenten lernen, wie Kunst entsteht und wie Menschen und Maschinen interagieren –, und genau das sagte er den Senatoren „OpenAI glaubt, dass eine Regulierung der KI unerlässlich ist.“ Er ist bestrebt, schrieb er in seiner vorbereiteten Zeugenaussage, „den politischen Entscheidungsträgern bei der Entscheidung zu helfen, wie sie eine Regulierung erleichtern können, die Anreize für die Sicherheit schafft und gleichzeitig sicherstellt, dass die Menschen Zugang zu den Vorteilen der Technologie haben.“

Senator Dick Durbin aus Illinois bezeichnete die Anhörung als „historisch“, weil er sich nicht erinnern konnte, dass Führungskräfte vor Gesetzgebern erschienen wären und sie „gefleht“ hätten, ihre Produkte zu regulieren – aber dies war tatsächlich nicht das erste Mal, dass ein Tech-CEO hatte in einem Anhörungsraum des Kongresses gesessen und mehr Regulierung gefordert. Vor allem im Jahr 2018, im Zuge des Cambridge-Analytica-Skandals – als Facebook der Trump-nahen Politikberatungsfirma ohne deren Wissen Zugriff auf die persönlichen Daten von fast neunzig Millionen Nutzern gewährte – sagte der CEO von Facebook, Mark Zuckerberg Einige der gleichen Senatoren sagten, er sei offen für eine stärkere staatliche Kontrolle, eine Position, die er im darauffolgenden Jahr in einem Artikel im Washington bekräftigte Post„Ich glaube, wir brauchen eine aktivere Rolle der Regierungen und Regulierungsbehörden.“ (Gleichzeitig zahlte Facebook Lobbyisten jedes Jahr Millionen von Dollar, um staatliche Regulierungen zu verhindern.)

Wie Zuckerberg leitete Altman seinen Appell für mehr Regulierung mit einer Erläuterung der Leitplanken ein, die sein Unternehmen bereits anwendet, etwa indem es seine Modelle darauf trainiert, bestimmte Arten von „asozialen“ Anfragen abzulehnen – wie eine, die ich kürzlich an ChatGPT gerichtet habe, als ich gefragt habe es, um den Code für den 3D-Druck einer Glock zu schreiben. (Es wurde jedoch ein Skript für eine 3D-gedruckte Schleuder geschrieben. „Ich möchte betonen, dass die Erstellung und Nutzung dieses Geräts verantwortungsvoll und legal erfolgen sollte“, hieß es, bevor der Code veröffentlicht wurde. ) Die Nutzungsrichtlinien von OpenAI verbieten es unter anderem auch, seine Modelle zu verwenden, um Malware zu erstellen, Bilder von sexuellem Kindesmissbrauch zu erstellen, zu plagiieren oder Materialien für politische Kampagnen zu produzieren, obwohl nicht klar ist, wie das Unternehmen sie durchsetzen will. „Wenn wir feststellen, dass Ihr Produkt oder Ihre Nutzung diesen Richtlinien nicht entspricht, bitten wir Sie möglicherweise, die erforderlichen Änderungen vorzunehmen“, heißt es in der Richtlinie und räumt im Wesentlichen ein, dass OpenAI in vielen Fällen nach einem Verstoß handelt, anstatt ihn zu verhindern Es.

In einer Eröffnungsrede der Anhörung war der Vorsitzende des Unterausschusses, Senator Richard Blumenthal aus Connecticut, schonungslos. „KI-Unternehmen sollten verpflichtet werden, ihre Systeme zu testen, bekannte Risiken offenzulegen und unabhängigen Forschern Zugang zu gewähren“, sagte er. Und er fügte hinzu: „Wenn KI-Unternehmen und ihre Kunden Schaden anrichten, sollten sie haftbar gemacht werden.“ Um seinen Standpunkt zum Thema Schaden zu verdeutlichen, hatte Blumenthal seine Bemerkungen mit einer Aufnahme von sich selbst eingeleitet, in der er über die Notwendigkeit einer Regulierung sprach, aber es waren Worte, die er nie wirklich ausgesprochen hatte. Sowohl „seine“ Stimme als auch „seine“ Aussage seien durch künstliche Intelligenz hergestellt worden. Die Auswirkungen, insbesondere für die Politiker im Raum, waren erschreckend.

Herauszufinden, wie man den Schaden beurteilt oder die Haftung bestimmt, kann genauso schwierig sein wie herauszufinden, wie man eine Technologie reguliert, die sich so schnell entwickelt, dass sie unbeabsichtigt alles, was ihr in den Weg kommt, kaputt macht. Altman äußerte in seiner Aussage die Idee, dass der Kongress eine neue Regierungsbehörde schaffen sollte, die mit der Lizenzierung sogenannter „leistungsstarker“ KI-Modelle beauftragt sein soll (obwohl nicht klar ist, wie dieses Wort in der Praxis definiert werden würde). Obwohl dies auf den ersten Blick keine schlechte Idee ist, hat sie doch das Potenzial, eine eigennützige Idee zu sein. Wie Clem Delangue, der CEO des KI-Startups Hugging Face, sagt: getwittert, „Eine Lizenz zum Trainieren von Modellen zu erfordern würde . . . die Macht weiter in den Händen einiger weniger konzentrieren.“ Im Fall von OpenAI, das in der Lage war, seine großen Sprachmodelle ohne staatliche Aufsicht oder andere regulatorische Belastungen zu entwickeln, würde es dem Unternehmen einen deutlichen Vorsprung vor seinen Konkurrenten verschaffen und seine Spitzenposition festigen, während es gleichzeitig neuere Systeme einschränkt Teilnehmer auf dem Feld.

Sollte dies passieren, würde dies nicht nur Unternehmen wie OpenAI und Microsoft (das GPT-4 in einer Reihe seiner Produkte verwendet, einschließlich seiner Suchmaschine Bing) einen wirtschaftlichen Vorteil verschaffen, sondern könnte auch den freien Fluss von Informationen und Ideen weiter untergraben. Gary Marcus, Professor und KI-Unternehmer, sagte den Senatoren, dass „die reale Gefahr einer Art Technokratie in Kombination mit Oligarchie besteht, in der eine kleine Anzahl von Unternehmen die Überzeugungen der Menschen beeinflusst“ und „das mit Daten tun, die wir nicht einmal kennen.“ wissen über.” Er bezog sich auf die Tatsache, dass OpenAI und andere Unternehmen geheim gehalten haben, auf welchen Daten ihre großen Sprachmodelle trainiert wurden, was es unmöglich machte, ihre inhärenten Vorurteile zu bestimmen oder ihre Sicherheit wirklich zu beurteilen.

Senator Josh Hawley aus Missouri stellte fest, dass die größte Gefahr von LLMs wie ChatGPT in ihrer Fähigkeit besteht, Wähler zu manipulieren. „Das ist einer meiner größten Sorgen“, sagte ihm Altman. „Die allgemeinere Fähigkeit dieser Modelle, zu manipulieren, zu überzeugen und eine Art direkte, interaktive Desinformation bereitzustellen“, sagte er, „angesichts der Tatsache, dass wir nächstes Jahr vor einer Wahl stehen, und diese Modelle.“ Wenn es besser wird, denke ich, dass dies ein wichtiger Bereich ist, der Anlass zur Sorge gibt.“

Der zweckmäßigste Weg, diese Bedenken auszuräumen, wäre, dass OpenAI die Führung übernimmt und seine LLMs vom Markt nimmt, bis sie nicht mehr in der Lage sind, Wähler zu manipulieren, Fehlinformationen zu verbreiten oder den demokratischen Prozess auf andere Weise zu untergraben. Das wäre wirklich, um Senator Durbin zu zitieren, „historisch“. Aber das wurde im Anhörungssaal nicht angeboten. Stattdessen konzentrierte sich ein Großteil der Diskussion darauf, welche Art von Regulierungsbehörde, wenn überhaupt, geschaffen werden könnte, wer in ihr tätig sein sollte und ob es möglich wäre, eine solche Behörde international zu gestalten. Es war eine faszinierende Zukunftsübung, die die gegenwärtige Gefahr ignorierte. Senator Blumenthal sagte seinen Kollegen: „Der Kongress hat jetzt die Wahl. Wir hatten die gleiche Wahl, als wir mit den sozialen Medien konfrontiert wurden. Wir haben es nicht geschafft, diesen Moment zu nutzen.“ Da eine Wahl bevorsteht und diese Technologie im Spiel ist, braucht man nicht die Vorhersagekraft der künstlichen Intelligenz, um zu erkennen, dass die Gesetzgeber trotz ihrer Neugier und überparteilichen Verbundenheit diesen Moment ebenfalls verpasst haben. ♦


source site

Leave a Reply