Das Lebenselixier des KI-Booms

Künstliche Intelligenz kann viele verschiedene Dinge sein – eine ganze Reihe von Programmen mit scheinbar wenig Gemeinsamkeiten. Manchmal ist KI ein Gesprächspartner, ein Illustrator, ein Mathe-Nachhilfelehrer, ein Gesichtserkennungstool. Aber in jeder Inkarnation ist es immer so, stets eine Maschine, deren Funktion nahezu unvorstellbare Mengen an Daten und Energie erfordert.

KI-Systeme wie ChatGPT operieren in Gebäuden, die mit Silizium-Computerchips vollgestopft sind. Um größere Maschinen zu bauen – wie es Microsoft, Google, Meta, Amazon und andere Technologieunternehmen gerne tun würden – braucht man mehr Ressourcen. Und unserem Planeten gehen sie aus.

Die Rechenleistung, die zum Trainieren erstklassiger KI-Programme erforderlich ist, hat sich im letzten Jahrzehnt alle sechs Monate verdoppelt und könnte bald unhaltbar werden. Laut einer aktuellen Studie könnten KI-Programme bis 2027 etwa so viel Strom verbrauchen wie Schweden. GPT-4, das leistungsstärkste Modell, das Verbrauchern derzeit von OpenAI angeboten wird, war einer Schätzung zufolge 100-mal anspruchsvoller zu trainieren als GPT-3 wurde erst vor vier Jahren veröffentlicht. Google hat kürzlich generative KI in seine Suchfunktion eingeführt und dabei möglicherweise die Kosten pro Suche verzehnfacht. In der Zwischenzeit sind die Chips, die KI betreiben, knapp – OpenAI-CEO Sam Altman sagte dem Kongress im vergangenen Mai, dass „wir nicht genug“ davon haben – und auch der Strom ist knapp. Bei unserem derzeitigen Tempo könnte es bald nicht mehr genug Energie auf der Welt geben, um fortschrittlichere Modelle zu betreiben, ohne die lokalen Stromnetze enorm zu belasten. Selbst wenn dies der Fall wäre, wäre der Kauf des gesamten Stroms unerschwinglich teuer.

[Read: AI is taking water from the desert]

Amerikanische Technologieunternehmen verehren den Altar der Größenordnung – die Überzeugung, dass ein KI-Programm mit mehr Computern, Strom und Daten mit Sicherheit besser wird –, also reicht das nicht aus. Derzeit läuft ein neuer KI-Wettbewerb, um Hardware zu entwickeln, die es der Technologie ermöglichen würde, leistungsfähiger zu werden Und effizienter. Dies wird mehr als umwerfende Anwendungen wie der Videogenerator Sora von OpenAI über die Zukunft der Technologie entscheiden – welche Unternehmen dominieren, welche KI-Produkte sie auf den Markt bringen können und wie teuer diese Produkte sein werden. Bisher war der klare Gewinner dieses Wettbewerbs kein traditioneller Tech-Gigant. Stattdessen ist es Nvidia, ein Unternehmen, das bis vor etwa einem Jahr außerhalb der Domäne engagierter Computerspieler unbekannt war – und heute das drittwertvollste Unternehmen der Welt ist und Google, Amazon und Meta in den Schatten stellt.

Der Reichtum von Nvidia beruht auf der Entwicklung des wichtigsten Teils der KI-Maschinerie: Computerchips. Diese Chips sind hauchdünne Rechtecke, die mit einem komplizierten Siliziumnetz bedruckt sind. Sie führen den Code aus, der Chatbots, Bildgeneratoren und anderen KI-Produkten zugrunde liegt. Die Grafikprozessoren oder GPUs von Nvidia waren früher dafür bekannt, die visuelle Wiedergabetreue von Videospielen zu verbessern. Die gleiche Art von Ausrüstung, die einem PC die Leistung verleiht, eine realistischere Beleuchtung darzustellen Ruf der Pflicht kann auch modernste KI-Systeme trainieren. Diese GPUs gehören zu den schnellsten und zuverlässigsten verfügbaren Chips und haben die bevorstehende KI-Revolution ermöglicht.

Um das weitere Wachstum der KI zu unterstützen, haben Technologieunternehmen gemeinsam einen Infrastrukturausbau in Angriff genommen, dessen Kosten bald mit denen der Apollo-Missionen und des Autobahnsystems konkurrieren könnten: Dutzende Milliarden Dollar, wenn nicht sogar mehr, werden dafür ausgegeben Cloud-Computing-Kapazität pro Jahr. Nvidia wiederum kontrolliert bis zu 95 Prozent des Marktes für spezialisierte KI-Chips; Aktuelle generative KI-Programme von Microsoft, OpenAI, Meta, Amazon und anderen könnten ohne die Hardware von Nvidia wahrscheinlich nicht erstellt oder auf Computern auf der ganzen Welt ausgeführt werden.

Als ChatGPT auf den Markt kam, fühlte es sich wie Magie an. Jedes andere Technologieunternehmen war bestrebt, seine eigene Version auf den Markt zu bringen. Der Wettbewerb fand über Software statt, was durch Nvidia-Hardware weitgehend erleichtert wurde. Jetzt sind es die drei besten Sprachmodelle – GPT-4 von OpenAI, Gemini von Google und die neueste Version von Claude von Anthropic Kopf an Kopf in der Leistung; Der Preis ist mindestens genauso wichtig Unterscheidungsmerkmal als Fähigkeit. Der Kauf und Betrieb all dieser KI-Chips sei der teuerste Teil der Technologie, sagte mir Jai Vipra, ein KI-Politikforscher und neuer Fellow bei IT for Change. Und „Nvidia ist das Unternehmen, das den Preis festlegt.“

Keines der Big-Tech-Unternehmen scheint von dieser Abhängigkeit begeistert zu sein, und sie alle haben begonnen, stark in die Entwicklung ihrer eigenen maßgeschneiderten Chips zu investieren – was nicht nur größere Modelle, sondern auch eine größere Kontrolle über ihre aufstrebenden KI-Unternehmen ermöglichen würde. Bessere Computerchips könnten bald ein größerer Wettbewerbsvorteil sein als besserer Computercode, sagte mir Siddharth Garg, ein Elektroingenieur, der an der NYU Hardware für maschinelles Lernen entwickelt. Entscheidend ist, dass selbst hergestellte KI-Chips auf die jeweiligen KI-Modelle eines Unternehmens zugeschnitten werden können, wodurch die Produkte effizienter werden und Wachstum ohne derart hohen Energiebedarf möglich wird.

Technologieunternehmen haben bereits Versionen dieser Strategie umgesetzt. Ihre täglichen Google-Such-, Übersetzungs- und Navigationsanfragen laufen reibungslos, da Google in den 2010er Jahren maßgeschneiderte Computerchips entwickelt hat, die es dem Unternehmen ermöglichten, täglich Milliarden solcher Anfragen mit weniger Energie und geringeren Kosten zu bearbeiten. Die Umstellung von Apple von Intel auf eigene Computerprozessoren im Jahr 2020 ermöglichte es dem Unternehmen fast augenblicklich, ein schnelleres, leichteres und dünneres MacBook zu produzieren. Wenn die benutzerdefinierten Chips von Amazon KI-Produkte schneller ausführen, könnten die Leute die Cloud-Dienste von Amazon möglicherweise den Cloud-Diensten von Google vorziehen. Wenn ein iPhone, ein Google Pixel oder ein Microsoft Surface-Tablet ein leistungsfähigeres generatives KI-Modell ausführen und seine Ergebnisse dank eines benutzerdefinierten Mikrochips etwas schneller laden kann, könnten mehr Kunden dieses Gerät kaufen. „Das ist ein Game Changer“, sagte Garg.

Jedes Unternehmen wünscht sich ein eigenes, in sich geschlossenes Reich, das nicht mehr an die Preise der Konkurrenz oder externe Lieferkettenprobleme gebunden ist. Aber ob eines dieser Cloud-Computing-Technologieunternehmen mit Nvidia konkurrieren kann, ist eine offene Frage, und es ist höchst unwahrscheinlich, dass eines von ihnen die Verbindung zu Nvidia abbricht. Die Zukunft könnte durchaus eine sein, in der sie sowohl maßgeschneiderte Computerchips als auch Nvidia-Designs verwenden.

[Read: The flaw that could ruin generative AI]

Laut Myron Xie, der beim Halbleiterforschungsunternehmen SemiAnalysis arbeitet, konnte Google beispielsweise seine Flaggschiff-Gemini-Modelle mit weniger Energie und zu geringeren Kosten trainieren und betreiben, indem es maßgeschneiderte Computerprozessoren verwendete, anstatt sich auf Nvidia zu verlassen. Aber auch viele Cloud-Server des Unternehmens laufen auf Nvidia-Chips, und Google hat sein neuestes Sprachmodell, Gemma, für den Betrieb auf Nvidia-GPUs optimiert. Amazon vermarktet seine maßgeschneiderten KI-Chips mit der Aussage, dass sie „die höchste Scale-out-ML-Trainingsleistung zu deutlich geringeren Kosten bieten“, und David Brown, Vizepräsident für Compute and Networking bei Amazon Web Services, teilte mir per E-Mail mit, dass Computerchips „von entscheidender Bedeutung“ seien Bereich der Innovation.“ Aber das Unternehmen baut auch seine Partnerschaft mit Nvidia aus. Ein Microsoft-Sprecher sagte mir: „Unsere maßgeschneiderten Chips ergänzen unsere Systeme, anstatt unsere vorhandene Hardware mit NVIDIA-Unterstützung zu ersetzen.“

Diese Vision eines allumfassenden KI-Ökosystems könnte auch eine Möglichkeit sein, Kunden zu verführen. Wenn Sie ein iPhone und ein MacBook besitzen, können Sie iMessage, iCloud, eine Apple Watch usw. bequemer nutzen. Dieselbe Logik könnte bald auch für KI gelten: Google Gemini, ein Google Chromebook, ein Google Pixel, die benutzerdefinierten KI-Chips von Google und die Google Cloud-Dienste werden alle füreinander optimiert. Berichten zufolge entwickelt OpenAI KI-„Agenten“, die Aufgaben auf verschiedenen Geräten automatisieren können. Und Apple hat sein Geschäft auf generative KI ausgerichtet. „Es ist eine Art Methode der vertikalen Integration, bei der Leute an den eigenen Stack gebunden werden“, sagte mir Sarah Myers West, die Geschäftsführerin des AI Now Institute.

Über das Chip-Design hinaus investieren Technologieunternehmen stark in die Entwicklung effizienterer Software und erneuerbarer Energiequellen. Auf dem Weltwirtschaftsforum im Januar sagte Altman: „Wir sind uns des Energiebedarfs dieser Technologie immer noch nicht bewusst … Ohne einen Durchbruch gibt es keinen Weg dorthin.“ Bei Effizienzsteigerungen geht es also möglicherweise nicht nur darum, KI ökologisch nachhaltig zu machen. Sie können notwendig sein, um die Technologie überhaupt physisch und finanziell rentabel zu machen.


source site

Leave a Reply