Meta hat seine KI-Technologie als Open-Source-Lösung bereitgestellt. Rivalen sagen, es sei eine riskante Entscheidung.

Im Februar unternahm Meta einen ungewöhnlichen Schritt in der sich schnell entwickelnden Welt der künstlichen Intelligenz: Das Unternehmen beschloss, seine KI-Kronjuwelen zu verschenken.

Der Riese aus dem Silicon Valley, dem Facebook, Instagram und WhatsApp gehören, hatte eine KI-Technologie namens LLaMA entwickelt, die Online-Chatbots antreiben kann. Doch anstatt die Technologie für sich zu behalten, veröffentlichte Meta den zugrunde liegenden Computercode des Systems. Akademiker, staatliche Forscher und andere, die Meta ihre E-Mail-Adresse gaben, konnten den Code herunterladen, sobald das Unternehmen die Person überprüft hatte.

Im Wesentlichen gab Meta seine KI-Technologie als Open-Source-Software weiter – Computercode, der frei kopiert, geändert und wiederverwendet werden kann – und bot Außenstehenden alles, was sie brauchten, um schnell eigene Chatbots zu erstellen.

„Die Plattform, die gewinnen wird, wird die offene sein“, sagte Yann LeCun, Chef-KI-Wissenschaftler von Meta, in einem Interview.

Während sich im gesamten Silicon Valley der Wettlauf um die Führung der KI verschärft, hebt sich Meta von seinen Konkurrenten ab, indem es einen anderen Ansatz bei der Technologie verfolgt. Angetrieben von seinem Gründer und Geschäftsführer Mark Zuckerberg ist Meta davon überzeugt, dass es am klügsten ist, die zugrunde liegenden KI-Engines zu teilen, um seinen Einfluss zu verbreiten und letztendlich schneller in die Zukunft zu schreiten.

Seine Aktionen stehen im Gegensatz zu denen von Google und OpenAI, den beiden Unternehmen, die das neue KI-Wettrüsten anführen. Diese Unternehmen befürchten, dass KI-Tools wie Chatbots zur Verbreitung von Desinformation, Hassreden und anderen giftigen Inhalten eingesetzt werden könnten, und verheimlichen zunehmend die Methoden und Software, die ihren KI-Produkten zugrunde liegen.

Google, OpenAI und andere haben Meta kritisiert und erklärt, ein uneingeschränkter Open-Source-Ansatz sei gefährlich. Der rasante Aufstieg der KI in den letzten Monaten hat Alarmglocken läuten lassen, was die Risiken der Technologie angeht, darunter auch, dass sie den Arbeitsmarkt auf den Kopf stellen könnte, wenn sie nicht richtig eingesetzt wird. Und nur wenige Tage nach der Veröffentlichung von LLaMA wurde das System auf 4chan übertragen, das Online-Messageboard, das für die Verbreitung falscher und irreführender Informationen bekannt ist.

„Wir möchten sorgfältiger darüber nachdenken, Details oder Open-Sourcing-Code“ der KI-Technologie preiszugeben, sagte Zoubin Ghahramani, ein Google-Vizepräsident für Forschung, der bei der Überwachung der KI-Arbeit hilft. „Wo kann das zu Missbrauch führen?“

Aber Meta sagte, es sehe keinen Grund, seinen Code für sich zu behalten. Die zunehmende Geheimhaltung bei Google und OpenAI sei ein „riesiger Fehler“, sagte Dr. LeCun, und eine „wirklich schlechte Sicht auf das, was passiert“. Er argumentiert, dass Verbraucher und Regierungen sich weigern werden, KI zu akzeptieren, es sei denn, sie liegt außerhalb der Kontrolle von Unternehmen wie Google und Meta.

„Wollen Sie, dass jedes KI-System unter der Kontrolle einiger mächtiger amerikanischer Unternehmen steht?“ er hat gefragt.

OpenAI lehnte eine Stellungnahme ab.

Metas Open-Source-Ansatz für KI ist nicht neu. Die Geschichte der Technologie ist übersät mit Kämpfen zwischen Open Source und proprietären oder geschlossenen Systemen. Einige horten die wichtigsten Werkzeuge, die zum Aufbau der Computerplattformen von morgen verwendet werden, während andere diese Werkzeuge verschenken. Zuletzt hat Google das mobile Betriebssystem Android als Open-Source-Lösung bereitgestellt, um die Dominanz von Apple bei Smartphones zu übernehmen.

Viele Unternehmen haben in der Vergangenheit auf Drängen von Forschern ihre KI-Technologien offen geteilt. Aber ihre Taktiken ändern sich aufgrund des Wettlaufs um die KI. Dieser Wandel begann letztes Jahr, als OpenAI ChatGPT veröffentlichte. Der überwältigende Erfolg des Chatbots begeisterte die Verbraucher und verschärfte die Konkurrenz im KI-Bereich. Google begann schnell, mehr KI in seine Produkte zu integrieren, und Microsoft investierte 13 Milliarden US-Dollar in OpenAI.

Während Google, Microsoft und OpenAI seitdem die meiste Aufmerksamkeit im Bereich KI erhalten haben, investiert auch Meta seit fast einem Jahrzehnt in die Technologie. Das Unternehmen hat Milliarden von Dollar in den Aufbau der Software und Hardware investiert, die zur Realisierung von Chatbots und anderen „generativen KIs“ erforderlich sind, die selbst Texte, Bilder und andere Medien produzieren.

In den letzten Monaten hat Meta hinter den Kulissen intensiv daran gearbeitet, seine jahrelange KI-Forschung und -Entwicklung in neue Produkte zu integrieren. Herr Zuckerberg konzentriert sich darauf, das Unternehmen zu einem führenden KI-Unternehmen zu machen, und hält wöchentliche Treffen zu diesem Thema mit seinem Führungsteam und seinen Produktleitern ab.

Der größte KI-Schritt von Meta in den letzten Monaten war die Veröffentlichung von LLaMA, einem sogenannten Large Language Model oder LLM (LLaMA steht für „Large Language Model Meta AI“). LLMs sind Systeme, die Fähigkeiten erlernen, indem sie große Textmengen analysieren. einschließlich Büchern, Wikipedia-Artikeln und Chatprotokollen. ChatGPT und Googles Bard-Chatbot basieren ebenfalls auf solchen Systemen.

LLMs lokalisieren Muster in den Texten, die sie analysieren, und lernen, eigene Texte zu erstellen, einschließlich Hausarbeiten, Blogbeiträgen, Gedichten und Computercode. Sie können sogar komplexe Gespräche führen.

Im Februar veröffentlichte Meta LLaMA offen und ermöglichte es Akademikern, Regierungsforschern und anderen, die ihre E-Mail-Adresse angegeben haben, den Code herunterzuladen und damit einen eigenen Chatbot zu erstellen.

Doch das Unternehmen ging weiter als viele andere Open-Source-KI-Projekte. Es ermöglichte den Benutzern, eine Version von LLaMA herunterzuladen, nachdem sie mit riesigen Mengen digitaler Texte aus dem Internet trainiert worden war. Forscher nennen dies „Freigeben der Gewichte“ und beziehen sich auf die besonderen mathematischen Werte, die das System bei der Datenanalyse lernt.

Dies war von Bedeutung, da für die Analyse all dieser Daten in der Regel Hunderte spezialisierter Computerchips und Dutzende Millionen Dollar erforderlich sind – Ressourcen, über die die meisten Unternehmen nicht verfügen. Wer über das nötige Gewicht verfügt, kann die Software schnell, einfach und kostengünstig bereitstellen und gibt dabei nur einen Bruchteil dessen aus, was die Erstellung solch leistungsstarker Software sonst kosten würde.

Daher glaubten viele in der Technologiebranche, Meta habe einen gefährlichen Präzedenzfall geschaffen. Und innerhalb weniger Tage veröffentlichte jemand die LLaMA-Gewichte auf 4chan.

An der Stanford University nutzten Forscher die neue Technologie von Meta, um ein eigenes KI-System zu bauen, das im Internet verfügbar gemacht wurde. Ein Stanford-Forscher namens Moussa Doumbouya nutzte es bald, um problematischen Text zu generieren, wie Screenshots der New York Times zeigen. In einem Fall lieferte das System Anweisungen zur Beseitigung einer Leiche, ohne erwischt zu werden. Es entstand auch rassistisches Material, darunter Kommentare, die die Ansichten Adolf Hitlers unterstützten.

In einem privaten Chat unter den Forschern, den The Times gesehen hatte, sagte Herr Doumbouya, die Verbreitung der Technologie an die Öffentlichkeit sei wie „eine Granate, die für jeden in einem Lebensmittelgeschäft verfügbar ist“. Auf eine Bitte um Stellungnahme antwortete er nicht.

Stanford entfernte das KI-System umgehend aus dem Internet. Das Projekt sollte Forschern eine Technologie zur Verfügung stellen, die „das Verhalten modernster KI-Modelle erfasst“, sagte Tatsunori Hashimoto, der Stanford-Professor, der das Projekt leitete. „Wir haben die Demo eingestellt, da wir uns zunehmend Sorgen über Missbrauchspotenziale machten, die über einen Forschungsrahmen hinausgingen.“

Dr. LeCun argumentiert, dass diese Art von Technologie nicht so gefährlich ist, wie es scheint. Er sagte, dass bereits eine kleine Anzahl von Personen Desinformation und Hassrede generieren und verbreiten könne. Er fügte hinzu, dass giftiges Material durch soziale Netzwerke wie Facebook stark eingeschränkt werden könnte.

„Man kann Menschen nicht daran hindern, Unsinn oder gefährliche Informationen oder was auch immer zu erstellen“, sagte er. „Aber man kann die Verbreitung verhindern.“

Für Meta können auch mehr Menschen, die Open-Source-Software verwenden, gleiche Wettbewerbsbedingungen schaffen, da es mit OpenAI, Microsoft und Google konkurriert. Wenn jeder Softwareentwickler auf der Welt Programme mit den Tools von Meta erstellt, könnte dies dazu beitragen, das Unternehmen für die nächste Innovationswelle zu rüsten und potenzielle Irrelevanz abzuwehren.

Dr. LeCun verwies auch auf die jüngste Geschichte, um zu erklären, warum Meta sich für die Open-Source-KI-Technologie einsetzte. Er sagte, die Entwicklung des Verbraucherinternets sei das Ergebnis offener, gemeinschaftlicher Standards, die zum Aufbau des schnellsten und am weitesten verbreiteten Netzwerks zum Wissensaustausch beigetragen hätten, das die Welt je gesehen habe.

„Der Fortschritt ist schneller, wenn es geöffnet ist“, sagte er. „Sie haben ein lebendigeres Ökosystem, in dem jeder seinen Beitrag leisten kann.“

source site

Leave a Reply