Die unmögliche KI-Aufgabe des Weißen Hauses

Heute früh unterzeichnete Präsident Joe Biden die bislang umfassendsten Regulierungsgrundsätze für künstliche Intelligenz in Amerika: eine langwierige Durchführungsverordnung, die alle Arten von Regierungsbehörden anweist, sicherzustellen, dass Amerika bei der Entwicklung der Technologie führend ist und gleichzeitig die vielen Menschen anspricht Gefahren, die es mit sich bringt. Die Anordnung drängt die Behörden ausdrücklich dazu, Regeln und Richtlinien festzulegen, Berichte zu verfassen und Finanzierungs- und Forschungsinitiativen für KI zu schaffen – „die folgenreichste Technologie unserer Zeit“, wie der Präsident es ausdrückte.

Der Umfang des Auftrags ist beeindruckend, insbesondere wenn man bedenkt, dass der Boom der generativen KI erst vor knapp einem Jahr begann. Aber die vielen Teile des Dokuments – und davon gibt es viele – stehen manchmal unter Spannung und offenbaren eine größere Verwirrung darüber, was genau Amerikas primäre Haltung gegenüber KI sein sollte: Ist sie eine Bedrohung für die nationale Sicherheit oder eine gerechte Gesellschaft? Ist es eine geopolitische Waffe? Ist es eine Möglichkeit, Menschen zu helfen?

Die Biden-Regierung hat „alle oben genannten Fragen“ beantwortet und damit ihre Überzeugung zum Ausdruck gebracht, dass die Technologie bald überall verfügbar sein wird. „Das ist eine große Sache“, sagte uns Alondra Nelson, Professorin am Institute for Advanced Study und zuvor amtierende Direktorin des Büros für Wissenschafts- und Technologiepolitik des Weißen Hauses. KI werde „so allgegenwärtig sein wie Betriebssysteme in unseren Mobiltelefonen“, sagte Nelson, was bedeutet, dass ihre Regulierung „den gesamten politischen Raum selbst“ einbeziehen wird. Gerade dieses Ausmaß erfordert fast Ambivalenz, und es ist, als hätte die Biden-Regierung widersprüchliche Ansichten berücksichtigt, ohne sich für einen Ansatz zu entscheiden.

Ein Abschnitt der Verordnung übernimmt umfassend die Argumente einer Handvoll einflussreicher KI-Unternehmen wie OpenAI und Google, während andere sich auf die Anliegen von Arbeitnehmern, gefährdeten und unterversorgten Gemeinschaften sowie Bürgerrechtsgruppen konzentrieren, die Big Tech am kritischsten gegenüberstehen. Die Anordnung macht auch deutlich, dass die Regierung besorgt ist, dass KI Fehlinformationen, Datenschutzverletzungen und Urheberrechtsverletzungen verschärfen wird. Die Verordnung berücksichtigt zwar die Empfehlungen von Big AI, skizziert aber auch Ansätze zur Unterstützung kleinerer KI-Entwickler und -Forscher. Und es gibt auch viele Hinweise auf die potenziellen Vorteile der Technologie: KI, heißt es in der Verordnung, habe „das Potenzial, einige der schwierigsten Herausforderungen der Gesellschaft zu lösen“. Es könnte ein Segen für kleine Unternehmen und Unternehmer sein, neue Beschäftigungskategorien schaffen, neue Medikamente entwickeln, die Gesundheitsversorgung verbessern und vieles mehr.

Wenn sich das Dokument wie eine Ansammlung von Artikeln liest, die von völlig unterschiedlichen Gruppen verfasst wurden, liegt das wahrscheinlich daran, dass es so ist. Der Präsident und der Vizepräsident haben Treffen mit Führungskräften von KI-Unternehmen, Bürgerrechtlern und Verbraucherschützern abgehalten, um die Regulierung der Technologie zu besprechen, und die Biden-Regierung veröffentlichte vor der Einführung von ChatGPT im vergangenen November einen Entwurf für eine KI-Bill of Rights. In diesem Dokument wurde unter anderem die Förderung von Bürgerrechten, Rassengerechtigkeit und Datenschutz gefordert. Die heutige Durchführungsverordnung zitiert und erweitert diesen früheren Vorschlag – sie geht direkt auf die nachgewiesene Fähigkeit von KI ein, in Kontexten wie der Gesundheitsfürsorge und der Einstellung zu Diskriminierung beizutragen, auf die Risiken des Einsatzes von KI bei der Verurteilung und Polizeiarbeit und mehr. Diese Probleme gab es schon lange vor dem Aufkommen der generativen KI, einer Unterkategorie der künstlichen Intelligenz, die auf der Grundlage von Trainingsdaten neues – oder zumindest überzeugend neu gemischtes – Material erstellt, aber diese älteren KI-Programme regen die kollektive Vorstellungskraft weniger an als ChatGPT mit seiner alarmierend menschenähnlichen Sprache .

Die Executive Order ist also natürlich weitgehend auf die Art ultraleistungsfähiger und rechenintensiver Software fixiert, die dieser neueren Technologie zugrunde liegt. Besonders umstritten sind sogenannte Dual-Use-Grundlagenmodelle, die auch „Frontier AI“-Modelle genannt werden – ein Begriff für zukünftige Generationen der Technologie mit vermeintlich verheerendem Potenzial. Der Ausdruck wurde von vielen Unternehmen populär gemacht, die diese Modelle entwickeln wollen, und Teile der Executive Order entsprechen dem regulatorischen Rahmen, den diese Unternehmen empfohlen haben. In einem einflussreichen Grundsatzpapier aus diesem Sommer, das teilweise von Mitarbeitern von OpenAI und Google DeepMind gemeinsam verfasst wurde, wurde vorgeschlagen, Grenz-KI-Modelle so zu definieren, dass sie solche einschließen, die die Entwicklung biologischer oder chemischer Waffen erleichtern würden, solche, die sich der menschlichen Kontrolle entziehen könnten. durch Täuschung und Verschleierung“ und diejenigen, die über einer Schwelle der Rechenleistung trainiert werden. Die Durchführungsverordnung verwendet fast genau die gleiche Sprache und den gleichen Schwellenwert.

Ein hochrangiger Verwaltungsbeamter bezeichnete im Gespräch mit Reportern die weitläufige Natur des Dokuments als ein Merkmal und nicht als einen Fehler. „KI-Politik ist wie ein Zehnkampf“, sagte der Beamte. „Wir haben nicht den Luxus, einfach auszuwählen und zu sagen: ‚Wir kümmern uns nur um Sicherheit‘ oder ‚Wir kümmern uns nur um Gerechtigkeit‘ oder ‚Wir kümmern uns nur um Privatsphäre‘.“ Wir müssen all diese Dinge tun.“ Schließlich habe die Verordnung eine enorme „Signalkraft“, sagte uns Suresh Venkatasubramanian, ein Informatikprofessor an der Brown University, der an der Mitverfasserschaft der früheren AI Bill of Rights beteiligt war. „Ich kann Ihnen sagen, dass sich der Kongress damit befassen wird, die Bundesstaaten werden sich damit befassen, die Gouverneure werden sich damit befassen.“

Jeder, der sich die Anordnung zur Orientierung anschaut, wird einen gemischten Eindruck von der Technologie gewinnen – die etwa so viele Einsatzmöglichkeiten hat wie ein Buch mögliche Themen – und wahrscheinlich auch Verwirrung darüber, worauf sich der Präsident konzentriert oder was er weggelassen hat. In der Anordnung wird sehr ausführlich dargelegt, wie sich verschiedene Behörden darauf vorbereiten sollten, die theoretischen Auswirkungen der KI auf chemische, biologische, radiologische und nukleare Bedrohungen anzugehen, eine Formulierung, die direkt aus dem von OpenAI und Google unterstützten Strategiepapier stammt. Im Gegensatz dazu gibt die Verwaltung weitaus weniger für den Einsatz von KI im Bildungswesen aus, einer massiven Anwendung der Technologie, die bereits im Einsatz ist. Das Dokument erkennt die Rolle an, die KI bei der Stärkung der Widerstandsfähigkeit gegen den Klimawandel spielen kann – beispielsweise durch die Verbesserung der Netzzuverlässigkeit und die Ermöglichung der Bereitstellung sauberer Energie, ein häufiges Diskussionsthema in der Branche –, erwähnt jedoch nicht ein einziges Mal die enormen Energie- und Wasserressourcen, die dafür erforderlich sind Entwicklung und Einsatz großer KI-Modelle noch die CO2-Emissionen, die sie verursachen. Und es wird die Möglichkeit erörtert, Bundesmittel zu nutzen, um Arbeitnehmer zu unterstützen, deren Arbeitsplätze durch KI beeinträchtigt werden könnten, erwähnt jedoch nicht Arbeitnehmer, die wohl von der KI-Wirtschaft ausgebeutet werden: zum Beispiel Menschen, die nur sehr wenig dafür bezahlt werden, manuell Feedback an Chatbots zu geben.

Auch internationale Konzerne sind im Orden stark vertreten. Zu den aggressivsten Maßnahmen der Verordnung gehört die Anweisung an den Handelsminister, neue Vorschriften vorzuschlagen, die US-amerikanische Cloud-Dienstanbieter wie Microsoft und Google dazu verpflichten würden, die Regierung zu benachrichtigen, wenn ausländische Einzelpersonen oder Organisationen, die ihre Dienste nutzen, mit der Schulung großer KI-Systeme beginnen Modelle, die für böswillige Zwecke verwendet werden könnten. Die Anordnung weist außerdem den Außenminister und den Heimatschutzminister an, die Visumgenehmigung für KI-Talente zu rationalisieren, und fordert mehrere andere Behörden, darunter das Verteidigungsministerium, auf, Empfehlungen für die Straffung des Genehmigungsverfahrens für Nicht-Staatsbürger mit KI-Kenntnissen auszuarbeiten, die arbeiten möchten innerhalb nationaler Labore und Zugang zu geheimen Informationen.

Während die Überwachung ausländischer Unternehmen eine implizite Anspielung auf den harten Wettbewerb der USA mit China und die Besorgnis über China bei der KI-Entwicklung ist, ist China auch die wichtigste Quelle ausländischer KI-Talente in den USA. Im Jahr 2019 waren 27 Prozent der führenden US-amerikanischen Unternehmen Laut einer Studie von Macro Polo, einem in Chicago ansässigen Think Tank, der die chinesische Wirtschaft untersucht, erhielten KI-Forscher ihre Grundausbildung in China, verglichen mit 31 Prozent derjenigen, die in den USA ausgebildet wurden. Das Dokument schlägt mit anderen Worten Maßnahmen gegen ausländische Agenten vor, die KI entwickeln, und unterstreicht gleichzeitig die Bedeutung internationaler Arbeitskräfte für die Entwicklung von KI in den USA

Die internationale Ausrichtung des Ordens kommt nicht von ungefähr; Es wird diese Woche unmittelbar vor einem großen britischen KI-Sicherheitsgipfel gehalten, bei dem Vizepräsidentin Kamala Harris eine Rede über die Vision der Regierung für KI halten wird. Im Gegensatz zum breiten Ansatz der USA oder dem AI Act der EU hat sich das Vereinigte Königreich fast ausschließlich auf diese Grenzmodelle konzentriert – „ein ziemlich enger Weg“, sagte Nelson. Im Gegensatz dazu berücksichtigt die US-Exekutivverordnung eine ganze Reihe von KI- und automatisierten Entscheidungstechnologien und versucht, nationale Sicherheit, Gerechtigkeit und Innovation in Einklang zu bringen. Die USA versuchten, einen anderen Ansatz für die Welt zu entwickeln, sagte sie.

Die Biden-Regierung nutzt die Anordnung wahrscheinlich auch, um einen letzten Druck auf ihre KI-politischen Positionen auszuüben, bevor die Wahl 2024 Washington verschlingt und möglicherweise eine neue Regierung antritt, Paul Triolo, ein assoziierter Partner für China und Leiter der Technologiepolitik Das Beratungsunternehmen Albright Stonebridge hat es uns erzählt. Das Dokument geht davon aus, dass die meisten Agenturen ihre Aufgaben vor Ende dieser Amtszeit abschließen werden. Die daraus resultierenden Berichte und Regulierungspositionen könnten jede im Kongress vorbereitete KI-Gesetzgebung beeinflussen, deren Verabschiedung wahrscheinlich viel länger dauern wird, und einer potenziellen Trump-Regierung zuvorkommen, die, wenn die Vergangenheit Anzeichen dafür gibt, ihre KI-Politik fast ausschließlich auf die globale Wettbewerbsfähigkeit Amerikas konzentrieren könnte .

Angesichts der Tatsache, dass seit der Veröffentlichung von ChatGPT erst 11 Monate vergangen sind und das Upgrade auf GPT-4 weniger als fünf Monate später erfolgte, erscheinen viele dieser Aufgaben und Zeitpläne jedoch etwas vage und weit entfernt. Die Anordnung gibt den Verteidigungs- und Heimatschutzministern 180 Tage Zeit, um ein Cybersicherheits-Pilotprojekt abzuschließen, 270 Tage für den Handelsminister, um eine Initiative zur Schaffung von Leitlinien in einem anderen Bereich zu starten, und 365 Tage für den Generalstaatsanwalt, um einen Bericht über etwas vorzulegen anders. Der hochrangige Verwaltungsbeamte sagte Reportern, dass ein neu gebildeter KI-Rat unter den Leitern der Agentur unter dem Vorsitz von Bruce Reed, einem stellvertretenden Stabschef des Weißen Hauses, dafür sorgen werde, dass jede Agentur stetige Fortschritte mache. Sobald die letzte Frist abgelaufen ist, wird sich die Position der Bundesregierung zu KI möglicherweise herauskristallisiert haben.

Aber vielleicht können oder sollten sich seine Haltung und seine Politik nicht einigen. Wie das Internet selbst ist künstliche Intelligenz eine umfangreiche Technologie, die auf schwindelerregende Weise entwickelt und eingesetzt werden kann; Der Kongress versucht immer noch herauszufinden, wie Urheberrechts- und Datenschutzgesetze sowie der Erste Verfassungszusatz auf das jahrzehntealte Internet anzuwenden sind, und alle paar Jahre scheinen sich die Bedingungen dieser Regulierungsgespräche erneut zu ändern.

Vor einem Jahr hätten sich nur wenige Menschen vorstellen können, wie Chatbots und Bildgeneratoren die grundlegende Art und Weise verändern würden, wie wir über die Auswirkungen des Internets auf Wahlen, Bildung, Arbeit oder Arbeit denken; Noch vor Monaten schien der Einsatz von KI in Suchmaschinen ein Fiebertraum zu sein. All das und noch viel mehr in der beginnenden KI-Revolution hat ernsthaft begonnen. Der interne Konflikt der Exekutivverordnung über und die Offenheit für unterschiedliche Werte und Herangehensweisen an KI könnte also unvermeidlich gewesen sein – das Ergebnis des Versuchs, einen Weg für eine Technologie aufzuzeigen, wenn niemand eine verlässliche Karte davon hat, wohin sie geht.

source site

Leave a Reply