Beim OpenAI-Chaos geht es um eine große Sache

Dies ist „Work in Progress“, ein Newsletter von Derek Thompson über Arbeit, Technologie und die Lösung einiger der größten Probleme Amerikas. Melden Sie sich hier an, um es jede Woche zu erhalten.

Aktualisiert am 22. November 2023 um 11 Uhr ET

OpenAI, das berühmte Startup für künstliche Intelligenz, herrscht seit sechs Tagen Chaos. Am Freitag entließ der Vorstand den Vorstandsvorsitzenden Sam Altman wegen „nicht durchgängiger Offenheit“. Am Sonntag holte das Unternehmen auf Druck des Investors Microsoft Altman zurück ins Büro, um seine Wiedereinstellung zu besprechen, musste jedoch feststellen, dass er immer noch gefeuert war. Am frühen Montagmorgen kündigte Microsoft-CEO Satya Nadella an, dass Altman in einer neuen, unbestimmten Rolle dem Technologieriesen beitreten werde, zog diese Ankündigung jedoch in den folgenden Stunden zurück. Später am Montag unterzeichneten rund 700 der fast 800 Mitarbeiter von OpenAI einen Brief, in dem sie die Rückkehr von Altman forderten. Schließlich gab OpenAI am Dienstag bekannt, dass Altman als CEO zum Unternehmen zurückkehren werde. Die wichtigsten Vorstandsmitglieder, die ihn entlassen hatten, würden entweder zurücktreten oder das Unternehmen ganz verlassen.

Wenn dies schwindelerregend erscheint, ist für das nächste Stück möglicherweise Dramamine erforderlich. Sutskever spielte die Schlüsselrolle bei der Entlassung von Altman wegen Google Meet am Freitag, lehnte dann am Sonntag seine Wiedereinstellung ab und unterzeichnete dann am Montag den Brief, in dem er die Rückkehr von Altman und die Entlassung seiner eigenen Mitverschwörer als Vorstandsmitglieder forderte. Auf X (ehemals Twitter) entschuldigte sich Sutskever beim gesamten Unternehmen und schrieb: „Ich bedauere zutiefst, dass ich mich an den Maßnahmen des Vorstands beteiligt habe.“ Altman antwortete mit drei roten Herzen. Man stellt sich vor, wie Brutus mitten in der Messerstecherei auf Cäsar das Messer herauszieht, Cäsar etwas Verbandsmaterial anbietet, erneut leicht auf ihn einsticht und dann schließlich in entschuldigenden Tränen zusammenbricht und verlangt, dass die kaiserlichen Ärzte die Bauchwunde nähen. (Kurz darauf, nach der Operation, schickt Caesar einen Kurier, um Brutus eine kurze, auf Papyrus geschriebene Nachricht zu schicken: „<3.“)

Was das menschliche Drama betrifft, ähneln die vergangenen Tage größtenteils einer gescheiterten Meuterei, bei der eine Rebellion in der Führung zunächst den Kapitän vertreibt, die Anführer der Aufstandsbekämpfung schließlich jedoch vom Schiff geworfen werden. Aber was das Unternehmensdrama angeht, ist der OpenAI-Aufruhr vor allem ein gutes Beispiel dafür, warum der Begriff unglaublich langweilig klingt Unternehmensführung ist eigentlich extrem wichtig.

Wir wissen immer noch nicht viel über den OpenAI-Aufruhr. Wir wissen nicht viel über Altmans Beziehung (oder deren Fehlen) zu dem Vorstand, der ihn entlassen hat. Wir wissen nicht, was Altman in den Tagen vor seiner Entlassung getan hat, die diesen drastischen Schritt für den Vorstand als unvermeidlich erscheinen ließen. Tatsächlich haben sich die Vorstandsmitglieder, die Altman entlassen haben, bisher geweigert, den genauen Grund für die Entlassung näher zu erläutern. Aber Folgendes wissen wir mit Sicherheit: Altmans Sturz war auf die bizarre Art und Weise zurückzuführen, wie OpenAI organisiert ist.

Im ersten Satz dieses Artikels habe ich Ihnen gesagt, dass „OpenAI am Freitag seinen CEO, Sam Altman, entlassen hat.“ Die technisch treffendste Formulierung wäre vielleicht gewesen: „Am Freitag entließ der Vorstand der gemeinnützigen Organisation OpenAI, Inc. Sam Altman, der vor allem als Haupttreiber seiner gewinnorientierten Tochtergesellschaft bekannt ist. OpenAI Global LLC.“ Verwirrend, oder?

Im Jahr 2015 gründeten Sam Altman, Elon Musk und mehrere andere KI-Koryphäen OpenAI als gemeinnützige Institution zum Aufbau leistungsstarker künstlicher Intelligenz. Die Idee war, dass die wichtigste Technologie in der Geschichte der Menschheit (wie manche behaupten) „der gesamten Menschheit zugute kommen“ sollte und nicht nur den Aktionären eines einzelnen Unternehmens zugute kommen sollte. Wie Ross Andersen in einem erklärte atlantisch In diesem Sommer haben sie OpenAI als gemeinnützige Organisation strukturiert, die „nicht durch die Notwendigkeit eingeschränkt ist, eine finanzielle Rendite zu erwirtschaften“.

Nach mehreren frustrierenden Jahren erkannte OpenAI, dass es Geld brauchte –eine Menge Geld. Die Kosten für Rechenleistung und technisches Talent zum Aufbau einer digitalen Superintelligenz erwiesen sich als astronomisch hoch. Außerdem verließ Musk, der die Geschäftstätigkeit der Organisation teilweise finanziert hatte, 2018 plötzlich den Vorstand, nachdem ein Versuch, das Unternehmen zu übernehmen, gescheitert war. Dies hinterließ bei OpenAI ein klaffendes finanzielles Loch.

OpenAI eröffnete daher eine gewinnorientierte Tochtergesellschaft, die der gemeinnützigen OpenAI-Organisation unterstellt sein sollte. Der Unternehmer und Schriftsteller Sam Lessin nannte diese Struktur ein korporatives „Turducken“ und bezog sich dabei auf das zweifelhafte Thanksgiving-Hauptgericht, bei dem eine gekochte Ente in einen gekochten Truthahn gestopft wird. In dieser Turducken-ähnlichen Vereinbarung würde der ursprüngliche Vorstand weiterhin alle gewinnorientierten Aktivitäten „regeln und beaufsichtigen“.

Als OpenAI, die gemeinnützige Organisation, OpenAI, die gewinnorientierte Organisation, gründete, ahnte niemand, was als nächstes kommen würde: der ChatGPT-Boom. Intern gingen die Mitarbeiter davon aus, dass die Einführung des KI-Chatbots ein kleines Ereignis sein würde; Das Unternehmen bezeichnete es als „zurückhaltende Forschungsvorschau“, die wahrscheinlich nicht mehr als 100.000 Benutzer anziehen würde. Äußerlich war die Welt verrückt nach ChatGPT. Es wurde in gewisser Weise zum am schnellsten wachsenden Verbraucherprodukt in der Geschichte und erreichte mehr als eine Milliarde Nutzer.

Langsam, langsam und dann sehr schnell wurde OpenAI, das gewinnorientierte Unternehmen, zum Star der Show. Altman trieb die schnelle Kommerzialisierung voran und brauchte noch mehr Geld, um dies zu ermöglichen. In den letzten Jahren hat Microsoft OpenAI mehr als 10 Milliarden US-Dollar in Form von Bargeld und Krediten für die Nutzung seiner Daten- und Cloud-Dienste zur Verfügung gestellt. Aber im Gegensatz zu einer typischen Unternehmensvereinbarung, bei der ein Großinvestor einen oder zwei Sitze im Vorstand garantieren könnte, brachten Microsofts Investitionen ihnen nichts ein. In der Betriebsvereinbarung von OpenAI heißt es unmissverständlich: „Microsoft hat keinen Sitz im Vorstand und keine Kontrolle.“ Heute sieht die Unternehmensstruktur von OpenAI – laut OpenAI selbst – so aus.

(OpenAI)

Theoretisch sollte diese Regelung sowohl Moral als auch Geld garantieren. Die Moral entsprang dem gemeinnützigen Vorstand. Das Geld floss von Microsoft, dem zweitgrößten Unternehmen der Welt, das über jede Menge Geld und Ressourcen verfügt, um OpenAI bei der Erfüllung seiner Mission, dem Aufbau einer allgemeinen Superintelligenz, zu unterstützen.

Aber anstatt die kommerziellen und ethischen Missionen von OpenAI in Einklang zu bringen, schuf diese Organisationsstruktur ein in sich selbst gespaltenes Haus. Am Freitag spielte sich dieser Konflikt in lebhafter Form ab. Altman, der auf Kommerzialisierung ausgerichtete Techno-Optimist, verlor gegen Sutskever, den brutalen und verrückten Wissenschaftler, der befürchtet, dass superintelligente KI eine existenzielle Gefahr für die Menschheit darstellt. Das war schockierend. Aber aus organisatorischer Sicht war es keine Überraschung. Ein gewinnorientiertes Start-up, das Hand in Hand mit Microsoft schnell Technologien entwickelt, war einem allmächtigen gemeinnützigen Vorstand unterstellt, der glaubte, es sei seine Pflicht, sich der schnellen Entwicklung von KI und Big-Tech-Allianzen zu widersetzen. Das macht keinen Sinn.

Im Nachhinein ist alles offensichtlich, insbesondere das Scheitern, und ich möchte nicht so tun, als hätte ich das alles kommen sehen. Ich glaube nicht irgendjemand habe das kommen sehen. Die Investitionen von Microsoft sind über viele Jahre hinweg entstanden. ChatGPT ist über viele Monate hinweg gewachsen. Dass das alles ohne Vorwarnung explodieren würde, war unvorstellbar.

Aber das ist die Sache mit der Technologie. Trotz Manifesten, die behaupten, dass die Ankündigung der Technologie eine Frage der kosmischen Unvermeidlichkeit sei, wird Technologie vorerst von Menschen gemacht – Menschen mit Fehlern, die brillant und manchmal ahnungslos sein können, die ihre Meinung ändern und dann wieder ändern. Bevor wir eine künstliche allgemeine Intelligenz aufbauen, um Fortschritt zu schaffen ohne Menschenwir brauchen zuverlässige Wege dazu Menschen organisieren zusammenzuarbeiten, um komplexe Dinge innerhalb komplexer Systeme aufzubauen. Der Begriff für diese Idee ist Unternehmensstruktur.

OpenAI steht am Abgrund der Selbstzerstörung, weil es bei seinem Versuch, eine ethisch einwandfreie Institution zum Schutz einer möglichen Superintelligenz aufzubauen, lediglich ein weiteres Instrument der Minderheitenkontrolle geschaffen hat, bei dem eine kleine Anzahl von Nichtangestellten die Macht hatte, seinen Geschäftsführer zu entlassen in einem Augenblick.

In der KI-Forschung gibt es das sogenannte „Alignment-Problem“. Wenn wir eine künstliche Intelligenz entwickeln, sollten wir sicherstellen, dass die Maschine die Absichten und Werte ihrer Architekten hat. Seltsamerweise haben die Architekten von OpenAI eine katastrophal unausgeglichene Institution geschaffen, in der der Vorstand und der Geschäftsführer im Wesentlichen zwei unvereinbare unterschiedliche Unternehmen innerhalb derselben Firma leiten. Letzte Woche war die größte Frage in der Technologie, ob wir lange genug leben könnten, um zu sehen, wie Menschen eine ausgerichtete Superintelligenz erfinden. Heute ist die passendere Frage: Werden wir lange genug leben, um zu sehen, wie die KI-Architekten eine Technologie erfinden, um sich selbst auszurichten?

source site

Leave a Reply