Elon Musk hat dem KI-Rennen gerade eine Falte hinzugefügt

Gestern Nachmittag hat Elon Musk den neuesten Schuss in seiner Fehde mit OpenAI abgefeuert: Sein neues KI-Unternehmen xAI ermöglicht es nun jedem, den Computercode für seine Flaggschiff-Software herunterzuladen und zu verwenden. Keine Gebühren, keine Einschränkungen, nur Grok, ein großes Sprachmodell, das Musk gegen GPT-4 von OpenAI positioniert hat, das Modell, das die fortschrittlichste Version von ChatGPT antreibt.

Die Weitergabe von Groks Code ist eine kaum verhüllte Provokation. Musk war einer der ursprünglichen Unterstützer von OpenAI. Er verließ das Unternehmen im Jahr 2018 und klagte kürzlich wegen Vertragsbruch. Er argumentierte, dass das Start-up und sein CEO, Sam Altman, die Gründungsprinzipien der Organisation im Streben nach Profit verraten und eine utopische Vision von Technologie, die „der gesamten Menschheit zugutekommt“, in eine Vision verwandelt hätten ein weiteres undurchsichtiges Unternehmen. Musk hat die letzten Wochen verbracht Berufung die geheimnisvolle FirmaGeschlossenAI.“

Es ist bestenfalls ein mittelmäßiger Knaller, aber er hat Recht. OpenAI gibt nicht viel über sein Innenleben preis, es fügte 2019 eine Tochtergesellschaft mit „gedeckeltem Gewinn“ hinzu, die den Aufgabenbereich des Unternehmens über das öffentliche Interesse hinaus erweiterte, und der Wert wird auf 80 Milliarden US-Dollar oder mehr geschätzt. Mittlerweile verteilen immer mehr KI-Konkurrenten den Code ihrer Produkte frei. Meta, Google, Amazon, Microsoft und Apple – allesamt Unternehmen, deren Vermögen auf proprietärer Software und Gadgets basiert – haben entweder den Code für verschiedene offene KI-Modelle veröffentlicht oder mit Start-ups zusammengearbeitet, die dies getan haben. Solche „Open-Source“-Veröffentlichungen ermöglichen es Akademikern, Regulierungsbehörden, der Öffentlichkeit und Start-ups theoretisch, KI-Modelle für ihre eigenen Zwecke herunterzuladen, zu testen und anzupassen. Die Veröffentlichung von Grok markiert also nicht nur einen Brennpunkt im Kampf zwischen Unternehmen, sondern möglicherweise auch einen Wendepunkt in der gesamten Branche. Das Bekenntnis von OpenAI zur Geheimhaltung scheint ein Anachronismus zu sein.

Diese Spannung zwischen Geheimhaltung und Transparenz hat seit der Einführung von ChatGPT Ende 2022 einen Großteil der Debatte über generative KI belebt. Wenn die Technologie wirklich eine existenzielle Bedrohung für die Menschheit darstellt, wie manche glauben, steigt oder sinkt das Risiko je nach Anzahl der Personen Kann ich auf den entsprechenden Code zugreifen? Abgesehen von Weltuntergangsszenarien: Wenn KI-Agenten und -Assistenten so häufig verwendet werden wie die Google-Suche oder Siri, wer sollte dann die Macht haben, diesen Wandel zu steuern und zu überprüfen? Open-Sourcing-Befürworter, eine Gruppe, zu der nun offenbar auch Musk gehört, argumentieren, dass die Öffentlichkeit in der Lage sein sollte, unter die Haube zu blicken, um die KI sowohl auf Bedrohungen für das Ende der Zivilisation als auch auf die weniger fantastischen Vorurteile und Mängel, die die Technologie heute plagen, rigoros zu testen. Das ist besser, als die gesamte Entscheidungsfindung Big Tech zu überlassen.

OpenAI wiederum hat eine konsistente Erklärung dafür geliefert, warum es anfing, enorme Geldbeträge zu sammeln und seinen Code nicht mehr weiterzugeben: Der Aufbau von KI wurde unglaublich teuer, und die Aussicht, die zugrunde liegende Programmierung freizugeben, wurde unglaublich gefährlich. Das Unternehmen hat erklärt, dass die Veröffentlichung vollständiger Produkte wie ChatGPT oder auch nur Demos wie einer für das videogenerierende Sora-Programm ausreicht, um sicherzustellen, dass zukünftige KI sicherer und nützlicher wird. Und als Reaktion auf Musks Klage veröffentlichte OpenAI Auszüge aus alten E-Mails, aus denen hervorgeht, dass Musk diesen Begründungen ausdrücklich zustimmte und sogar eine Fusion mit Tesla Anfang 2018 vorschlug, um die zukünftigen Kosten der Technologie zu decken.

Diese Kosten stellen ein anderes Argument für Open-Sourcing dar: Öffentlich verfügbarer Code kann den Wettbewerb fördern, indem er es kleineren Unternehmen oder unabhängigen Entwicklern ermöglicht, KI-Produkte zu entwickeln, ohne ihre eigenen Modelle von Grund auf entwickeln zu müssen, was für alle außer einigen wenigen Ultra-Entwicklern unerschwinglich teuer sein kann. wohlhabende Unternehmen und Milliardäre. Aber beide Ansätze – Investitionen von Technologieunternehmen zu erhalten, wie es OpenAI getan hat, oder Technologieunternehmen dazu zu bringen, ihre grundlegenden KI-Modelle zu öffnen – sind in gewisser Weise Seiten derselben Medaille: Möglichkeiten, den enormen Kapitalbedarf der Technologie zu überwinden, der auf ihrer Seite nicht verfügbar ist besitzen, dieses Kapital umverteilen.

Wenn Unternehmen KI-Code veröffentlichen, halten sie in den meisten Fällen bestimmte entscheidende Aspekte zurück; xAI hat beispielsweise die Trainingsdaten von Grok nicht weitergegeben. Ohne Trainingsdaten ist es schwierig zu untersuchen, warum ein KI-Modell bestimmte Vorurteile oder Einschränkungen aufweist, und es ist unmöglich zu wissen, ob sein Ersteller gegen das Urheberrecht verstoßen hat. Und ohne Einblick in die Produktion eines Modells – technische Details darüber, wie der endgültige Code entstanden ist – ist es viel schwieriger, etwas über die zugrunde liegende Wissenschaft herauszufinden. Selbst mit öffentlich verfügbaren Trainingsdaten sind KI-Systeme einfach zu umfangreich und rechenintensiv, als dass die meisten gemeinnützigen Organisationen und Universitäten, geschweige denn Einzelpersonen, sie herunterladen und ausführen könnten. (Ein Standard-Laptop hat zu wenig Speicherplatz, um Grok überhaupt herunterzuladen.) xAI, Google, Amazon und alle anderen sagen Ihnen nicht, wie Sie einen branchenführenden Chatbot erstellen, geschweige denn, wie Sie die Ressourcen dafür bereitstellen. Bei Offenheit geht es sowohl um Markenbildung als auch um Werte. Tatsächlich hat Mark Zuckerberg in einer kürzlichen Gewinnmitteilung kein Blatt vor den Mund genommen, warum Offenheit ein gutes Geschäft ist: Sie ermutigt Forscher und Entwickler, Meta-Produkte zu nutzen und zu verbessern.

Zahlreiche Start-ups und akademische Kooperationen veröffentlichen neben ihren KI-Produkten offenen Code, Trainingsdaten und robuste Dokumentation. Aber Big-Tech-Unternehmen neigen dazu, sich streng zu verhalten. Das Flaggschiffmodell von Meta, Llama 2, kann kostenlos heruntergeladen und verwendet werden – die Richtlinien verbieten jedoch den Einsatz zur Verbesserung eines anderen KI-Sprachmodells oder zur Entwicklung einer Anwendung mit mehr als 700 Millionen monatlichen Nutzern. Solche Verwendungen würden natürlich eine tatsächliche Konkurrenz zu Meta darstellen. Die fortschrittlichsten KI-Angebote von Google sind immer noch proprietär; Microsoft hat Open-Source-Projekte unterstützt, aber GPT-4 von OpenAI bleibt im Mittelpunkt seiner Angebote.

Unabhängig von der philosophischen Debatte über Sicherheit könnte der Hauptgrund für den geschlossenen Ansatz von OpenAI im Vergleich zur wachsenden Offenheit der Technologieriesen einfach seine Größe sein. Billionen-Dollar-Unternehmen können es sich leisten, KI-Code in die Welt zu bringen, da sie wissen, dass die Gewinne in verschiedenen Produkten und der Integration von KI in diese Produkte liegen – etwa durch die Einführung von KI in Gmail oder Microsoft Outlook. xAI wird direkt von einem der reichsten Menschen der Welt unterstützt und seine Software könnte in X-Funktionen (ehemals Twitter) und Tesla-Autos integriert werden. Andere Start-ups müssen derweil ihren Wettbewerbsvorteil geheim halten. Erst wenn Offenheit und Profit in Konflikt geraten, bekommen wir einen Einblick in die wahren Beweggründe dieser Unternehmen.


source site

Leave a Reply