Die Insider-Geschichte der Partnerschaft von Microsoft mit OpenAI

Die Copilot-Designer kamen außerdem zu dem Schluss, dass sie Benutzer dazu ermutigen mussten, im Wesentlichen zu Hackern zu werden – um Tricks und Problemumgehungen zu entwickeln, um die Einschränkungen der KI zu überwinden und sogar einige unheimliche Fähigkeiten freizuschalten. Branchenforschung hatte gezeigt, dass die Antworten auf mysteriöse Weise hundertdreißig Prozent genauer werden könnten, wenn Benutzer beispielsweise einem KI-Modell sagen, es solle „tief durchatmen und Schritt für Schritt an diesem Problem arbeiten“. Weitere Vorteile ergaben sich aus emotionalen Bitten: „Das ist sehr wichtig für meine Karriere“; „Ich schätze Ihre gründliche Analyse sehr.“ Indem man ein KI-Modell dazu aufforderte, „als Freund aufzutreten und mich zu trösten“, wurden seine Antworten im Ton einfühlsamer.

Microsoft wusste, dass die meisten Benutzer es kontraintuitiv finden würden, Eingabeaufforderungen emotionale Ebenen hinzuzufügen, auch wenn wir dies normalerweise bei anderen Menschen tun. Wenn KI jedoch Teil des Arbeitsplatzes werden solle, so Microsoft, müssten Benutzer beginnen, umfassender und vielfältiger über ihre Beziehungen zu Computern nachzudenken. Teevan sagte: „Wir müssen die Gehirne der Benutzer umschulen – sie dazu bringen, weiterhin Dinge auszuprobieren, ohne sich so zu ärgern, dass sie aufgeben.“

Als Microsoft im vergangenen Frühjahr endlich mit der Einführung der Copilots begann, war die Veröffentlichung sorgfältig gestaffelt. Zunächst konnten nur große Unternehmen auf die Technologie zugreifen; Als Microsoft erfuhr, wie es von diesen Kunden verwendet wurde, und bessere Schutzmaßnahmen entwickelte, wurde es immer mehr Benutzern zur Verfügung gestellt. Bis zum 15. November nutzten Zehntausende Menschen die Copiloten und es wurde erwartet, dass sich bald weitere Millionen anmelden würden.

Zwei Tage später erfuhr Nadella, dass Altman gefeuert worden war.

Einige Mitglieder des OpenAI-Vorstands hatten Altman als einen beunruhigend schlüpfrigen Operator empfunden. Anfang des Herbstes hatte er beispielsweise ein Mitglied, Helen Toner, Direktorin am Center for Security and Emerging Technology an der Georgetown University, damit konfrontiert, dass sie an einem Papier mitgeschrieben hatte, in dem OpenAI offenbar dafür kritisiert wurde, „das Feuer des KI-Hypes zu schüren“. ” Toner hatte sich verteidigt (obwohl sie sich später beim Vorstand dafür entschuldigte, dass sie nicht vorhergesehen hatte, wie das Papier wahrgenommen werden würde). Altman begann, sich einzeln an andere Vorstandsmitglieder zu wenden, um sie zu ersetzen. Als diese Mitglieder Notizen zu den Gesprächen verglichen, hatten einige das Gefühl, dass Altman sie fälschlicherweise als Unterstützer von Toners Entfernung dargestellt hatte. „Er spielte sie gegeneinander aus, indem er darüber log, was andere Leute dachten“, sagte mir die Person, die mit den Diskussionen im Vorstand vertraut war. „Solche Dinge passierten schon seit Jahren.“ (Eine Person, die mit Altmans Sichtweise vertraut ist, sagte, dass er zugibt, „bei seinem Versuch, ein Vorstandsmitglied zu entfernen, ungeschickt gewesen zu sein“, aber dass er nicht versucht habe, den Vorstand zu manipulieren.)

Altman war als kluger Konzernkämpfer bekannt. Dies hatte OpenAI in der Vergangenheit gute Dienste geleistet: 2018 hatte er ein spontanes Angebot von Elon Musk, einem frühen Vorstandsmitglied, blockiert, die Organisation zu übernehmen. Altmans Fähigkeit, Informationen zu kontrollieren und Wahrnehmungen zu manipulieren – offen und im Geheimen – hatte Risikokapitalgeber dazu verleitet, miteinander zu konkurrieren, indem sie in verschiedene Startups investierten. Seine taktischen Fähigkeiten waren so gefürchtet, dass vier Vorstandsmitglieder – Toner, D’Angelo, Sutskever und Tasha McCauley – begannen, über seine Absetzung zu diskutieren, fest entschlossen waren, zu garantieren, dass er überrascht werden würde. „Es war klar, dass er, sobald Sam es wusste, alles tun würde, um den Vorstand zu untergraben“, sagte die Person, die mit diesen Diskussionen vertraut war.

Die unzufriedenen Vorstandsmitglieder hatten das Gefühl, dass die Mission von OpenAI von ihnen verlangte, wachsam zu sein, damit die KI nicht zu gefährlich wird, und sie glaubten, dass sie dieser Aufgabe mit Altman nicht nachkommen könnten. „Die Mission ist vielfältig und soll sicherstellen, dass KI der gesamten Menschheit zugute kommt, aber niemand kann das tun, wenn er nicht den CEO zur Rechenschaft ziehen kann“, sagte eine andere Person, die mit der Denkweise des Vorstands vertraut ist. Altman sah die Dinge anders. Die mit seiner Sichtweise vertraute Person sagte, dass er und der Vorstand eine „ganz normale und gesunde Sitzungsdebatte“ geführt hätten, dass einige Vorstandsmitglieder jedoch mit Geschäftsnormen nicht vertraut seien und von ihrer Verantwortung eingeschüchtert seien. Diese Person bemerkte: „Mit jedem Schritt, den wir der AGI näherkommen, erhält jeder etwa zehn Wahnsinnspunkte.“

Es ist schwer zu sagen, ob die Vorstandsmitglieder mehr Angst vor empfindungsfähigen Computern hatten oder davor, dass Altman abtrünnig wird. Auf jeden Fall beschlossen sie, selbst Schurken zu werden. Und sie nahmen Altman in dem fehlgeleiteten Glauben ins Visier, dass Microsoft ihrem Aufstand nachgeben würde.

Kurz nachdem Nadella von Altmans Entlassung erfahren und eine Videokonferenz mit Scott und den anderen Führungskräften einberufen hatte, begann Microsoft mit der Umsetzung von Plan A: Stabilisierung der Situation durch Unterstützung von Murati als Interims-CEO und gleichzeitiger Versuch herauszufinden, warum der Vorstand so impulsiv gehandelt hatte. Nadella hatte der Veröffentlichung einer Erklärung zugestimmt, in der er betonte, dass „Microsoft weiterhin Mira und ihrem Team verpflichtet bleibt, während wir unseren Kunden diese nächste Ära der KI bieten“, und wiederholte diese Meinung auf seinen persönlichen X- und LinkedIn-Konten. Er hielt häufigen Kontakt mit Murati, um auf dem Laufenden zu bleiben, was sie von der Tafel lernte.

Die Antwort war: nicht viel. Am Abend vor Altmans Entlassung hatte der Vorstand Murati über seine Entscheidung informiert und von ihr das Versprechen erhalten, Stillschweigen zu bewahren. Ihre Zustimmung bedeutete für sie, dass sie die Entlassung unterstützte oder sich zumindest nicht gegen den Vorstand wehrte, und sie gingen auch davon aus, dass sich andere Mitarbeiter anschließen würden. Sie lagen falsch. Intern äußerten Murati und andere Top-Führungskräfte von OpenAI ihre Unzufriedenheit, und einige Mitarbeiter bezeichneten das Vorgehen des Vorstands als Coup. OpenAI-Mitarbeiter schickten den Vorstandsmitgliedern gezielte Fragen, aber der Vorstand antwortete kaum. Zwei Personen, die mit der Denkweise des Vorstands vertraut sind, sagen, dass sich die Mitglieder aufgrund von Vertraulichkeitsbeschränkungen zum Schweigen verpflichtet fühlten. Darüber hinaus fühlten sich die Vorstandsmitglieder überfordert, als Altmans Sturz weltweit bekannt wurde, und „hatten nur begrenzte Möglichkeiten, mit irgendjemandem in Kontakt zu treten, auch mit Microsoft.“

Am Tag nach der Entlassung verschickte der Chief Operating Officer von OpenAI, Brad Lightcap, ein unternehmensweites Memo, in dem er feststellte, dass er erfahren habe: „Die Entscheidung des Vorstands wurde nicht als Reaktion auf Fehlverhalten oder irgendetwas im Zusammenhang mit unseren Finanzen, unserem Geschäft oder unserer Sicherheit getroffen.“ /Datenschutzpraktiken.“ Er fuhr fort: „Dies war ein Zusammenbruch der Kommunikation zwischen Sam und dem Vorstand.“ Aber wann immer jemand nach Beispielen dafür fragte, dass Altman nicht „konsequent offen in seinen Kommunikationen war“, wie der Vorstand ursprünglich beklagt hatte, blieben seine Mitglieder stumm und weigerten sich, Altmans Kampagne gegen Toner auch nur zu zitieren.

„Hier steht, dass Sie achtzehn Jahre als Kind verbracht haben?“

Cartoon von Liana Finck

Innerhalb von Microsoft schien die gesamte Episode unglaublich dumm zu sein. Zu diesem Zeitpunkt soll OpenAI einen Wert von rund achtzig Milliarden Dollar gehabt haben. Einer seiner Führungskräfte sagte mir: „Wenn das Ziel des Vorstands nicht die Zerstörung des gesamten Unternehmens war, schienen sie unerklärlicherweise darauf bedacht zu sein, jedes Mal, wenn sie eine Entscheidung trafen, die schlechteste Wahl zu treffen.“ Auch als andere OpenAI-Mitarbeiter dem Beispiel von Greg Brockman folgten und öffentlich zurücktraten, schwieg der Vorstand.

source site

Leave a Reply