Chaos in der Wiege der KI

Im Film „Terminator 2: Judgement Day“ aus dem Jahr 1991 reist ein intelligenter Killerroboter in die Vergangenheit, um den Aufstieg der künstlichen Intelligenz zu stoppen. Der Roboter macht den Informatiker ausfindig, dessen Arbeit zur Schaffung von Skynet führen wird, einem Computersystem, das die Welt zerstören wird, und überzeugt ihn, dass die KI-Entwicklung sofort gestoppt werden muss. Gemeinsam reisen sie zum Hauptsitz von Cyberdyne Systems, dem Unternehmen hinter Skynet, und sprengen es. Die KI-Forschung wird zerstört und der Lauf der Geschichte verändert sich – zumindest für den Rest des Films. (Es gab vier weitere Fortsetzungen.)

In der Science-Fiction-Welt von „Terminator 2“ ist glasklar, was es für eine KI bedeutet, „selbstbewusst“ zu werden oder eine Gefahr für die Menschheit darzustellen; Es ist ebenso offensichtlich, was getan werden könnte, um dem Einhalt zu gebieten. Aber im wirklichen Leben sind sich die Tausenden von Wissenschaftlern, die ihr Leben damit verbracht haben, an KI zu arbeiten, nicht einig darüber, ob heutige Systeme denken oder dazu in der Lage sein könnten; Sie sind sich nicht sicher, welche Art von Vorschriften oder wissenschaftlichen Fortschritten der Technologie zum Aufschwung verhelfen und gleichzeitig verhindern könnten, dass sie gefährlich wird. Da einige Leute in der KI starke und eindeutige Ansichten zu diesen Themen vertreten, könnte der Eindruck entstehen, dass die KI-Gemeinschaft klar in Fraktionen gespalten ist, wobei die eine sich um das Risiko sorgt und die andere bestrebt ist, voranzukommen. Aber die meisten Forscher liegen irgendwo in der Mitte. Sie grübeln immer noch über die wissenschaftlichen und philosophischen Komplexitäten; Sie wollen vorsichtig vorgehen, was auch immer das bedeuten mag.

OpenAI, die Forschungsorganisation hinter ChatGPT, vertritt seit langem diese Mittelposition. Sie wurde 2015 als gemeinnützige Organisation mit großen Investitionen von Peter Thiel und Elon Musk gegründet, die sich Sorgen über die Risiken machten, die KI mit sich bringt. Das Ziel von OpenAI besteht laut seiner Satzung darin, die sogenannte künstliche allgemeine Intelligenz (AGI) auf eine Weise zu entwickeln, die für die Menschheit „sicher und vorteilhaft“ ist. Auch wenn man versucht, „hochautonome Systeme zu bauen, die den Menschen bei der wirtschaftlich wertvollsten Arbeit übertreffen“, will man sicherstellen, dass die KI „der Menschheit keinen Schaden zufügt oder die Macht unangemessen konzentriert“. Diese beiden Ziele könnten durchaus unvereinbar sein; Der Bau von Systemen, die menschliche Arbeitskräfte ersetzen können, hat eine natürliche Tendenz zur Machtkonzentration. Dennoch hat die Organisation versucht, ihre Satzung durch eine hybride Vereinbarung einzuhalten. Im Jahr 2019 teilte es sich in zwei Einheiten auf, eine gewinnorientierte und eine gemeinnützige, wobei der gewinnorientierte Teil vom gemeinnützigen Teil überwacht wird. Zumindest theoretisch würde der gewinnorientierte Teil von OpenAI wie ein Startup agieren und sich auf die Beschleunigung und Kommerzialisierung der Technologie konzentrieren; Der gemeinnützige Teil würde wie ein Wachhund fungieren und die Gründung von Skynet verhindern, während er gleichzeitig Forschung betreibt, die wichtige Fragen zur KI-Sicherheit beantworten könnte. Die Gewinne und Investitionen aus der Kommerzialisierung würden die Forschung der gemeinnützigen Organisation finanzieren.

Der Ansatz war ungewöhnlich, aber produktiv. Mit Hilfe von mehr als dreizehn Milliarden Dollar an Investitionen von Microsoft wurde OpenAI entwickelt DALL-E, ChatGPT und andere branchenführende KI-Produkte und begann, GPT, seine leistungsstarken großen Sprachmodelle, zum Motor eines viel größeren Software-Ökosystems zu machen. In diesem Jahr schien es, als könnte OpenAI einen Vorsprung vor Google, Facebook und anderen Technologieunternehmen festigen, die leistungsfähige KI-Systeme entwickeln, obwohl der gemeinnützige Teil des Unternehmens Initiativen startete, die sich auf die Reduzierung der Risiken der Technologie konzentrierten. Dieser Zentaur schaffte es, bis letzte Woche durchzugaloppieren, als der vierköpfige Vorstand von OpenAI, der weithin als sensibel für die Risiken von KI gilt, seinen CEO Sam Altman entließ, der zu OpenAI kam, nachdem er den Startup-Beschleuniger Y Combinator geleitet hatte . Zur Begründung behauptete das Gremium, Altman habe es versäumt, „in seinen Mitteilungen stets offen zu sein“; Berichten zufolge sagte Ilya Sutskever, Vorstandsmitglied und leitender Wissenschaftler von OpenAI, in einer Plenumssitzung nach der Entlassung, dass der Vorstand „seine Pflicht getan“ habe. Aber die OpenAI-Mitarbeiter waren nicht überzeugt und es kam zu Chaos. Mehr als siebenhundert von ihnen unterzeichneten einen Brief, in dem sie den Rücktritt des Vorstands und Altmans Wiedereinstellung forderten; In der Zwischenzeit wurden Altman und Greg Brockman, Mitbegründer von OpenAI und Vorstandsmitglied, Positionen als Leiter einer KI-Abteilung bei Microsoft angeboten. Die Mitarbeiter, die den Brief unterzeichnet haben, haben gedroht, ihnen dorthin zu folgen; Wenn es genug davon gibt, könnte OpenAI – das aufregendste Technologieunternehmen, das kürzlich einen Wert von 86 Milliarden US-Dollar hatte – ein Erfolg sein.

Heutige KI-Systeme funktionieren oft, indem sie Ähnlichkeiten erkennen und Analogien ziehen. Auch die Leute denken so: In den Tagen nach Altmans Kündigung verglichen Beobachter es mit der Entlassung von Steve Jobs durch den Apple-Vorstand im Jahr 1985 oder mit „Game of Thrones“. Als ich ChatGPT aufforderte, einige vergleichbare Erzählungen vorzuschlagen, nominierte es „Succession“ und „Jurassic Park“. Im letzteren Fall hieß es: „John Hammond drängt darauf, schnell einen Dinosaurierpark zu eröffnen, und ignoriert dabei die Warnungen von Experten vor den Risiken, was Altmans Eifer mit der von anderen bei OpenAI mahnenden Vorsicht vergleicht.“ Dabei handelt es sich nicht um eine ganz präzise Analogie: Obwohl Altman möchte, dass KI weit verbreitet und äußerst profitabel wird, hat er auch häufig über ihre Gefahren gesprochen. Im Mai teilte er dem Kongress mit, dass betrügerische KI eine existenzielle Gefahr für die Menschheit darstellen könnte. Hammond hat den Parkbesuchern nie gesagt, dass sie eine gute Chance haben, gefressen zu werden.

In Wahrheit weiß niemand außerhalb eines kleinen inneren Kreises, was Altmans Entlassung wirklich motiviert hat. Dennoch haben sich spekulative Beiträge auf X (früher bekannt als Twitter) und Substack im industriellen Maßstab vervielfacht. Zunächst betrachteten viele den Schritt als einen Putsch Sutskevers. Dies schien jedoch am Montag weniger wahrscheinlich, als Sutskever seine Reue twitterte: „Ich bereue zutiefst meine Beteiligung an den Aktionen des Vorstands. Ich hatte nie vor, OpenAI Schaden zuzufügen. Ich liebe alles, was wir gemeinsam aufgebaut haben, und ich werde alles tun, was ich kann, um das Unternehmen wieder zu vereinen“, sagte er schriebund unterzeichnete in einer verblüffenden Kehrtwende den Brief, in dem Altmans Wiedereinstellung gefordert wurde.


source site

Leave a Reply