Die großen Fragen zur KI im Jahr 2024

Seien wir dankbar für die KI-Industrie. Seine Anführer treiben die Menschheit vielleicht näher an die Ausrottung, aber dieses Jahr haben sie uns ein herrlich chaotisches Spektakel des Fortschritts beschert. Wenn ich „Jahr“ sage, meine ich das lange Jahr, das Ende November letzten Jahres begann, als OpenAI ChatGPT veröffentlichte und damit generative KI in den kulturellen Mainstream einführte. In den folgenden Monaten versuchten Politiker, Lehrer, Hollywood-Drehbuchautoren und so ziemlich jeder andere zu verstehen, was dies für ihre Zukunft bedeutet. Geld floss in KI-Unternehmen, und ihre Führungskräfte, die inzwischen zu internationalen Berühmtheiten aufgestiegen waren, fielen hinein Nachfolge-artige Machtkämpfe. Das kommende Jahr könnte genauso turbulent werden, da sich die Technologie weiterentwickelt und ihre Auswirkungen klarer werden. Hier sind fünf der wichtigsten Fragen zu KI, die im Jahr 2024 beantwortet werden könnten.

Ist das Unternehmensdrama vorbei?

Greg Brockman von OpenAI ist der Präsident des weltweit berühmtesten KI-Unternehmens und der Golden-Retriever-Freund aller Technologiemanager. Seit Sam Altman letzten Monat von seiner Position als CEO entlassen und kurz darauf wieder eingestellt wurde, scheint Brockman für das Unternehmen eine Doppelrolle zu spielen – teils Cheerleader, teils Klebermann. Zum jetzigen Zeitpunkt hat er nicht weniger als fünf Gruppen-Selfies aus dem OpenAI-Büro gepostet, um zu zeigen, wie glücklich und unaufdringlich die Mitarbeiter sind. (Ob und in welchem ​​Umfang überlasse ich Ihnen zu beurteilen diese lächelt Sind gezwungen.) Er beschrieb die diesjährige Weihnachtsfeier als die des Unternehmens das Beste überhaupt. Er behält Sprichwort Wie konzentriertWie energiegeladenWie vereinigt jeder ist. Seine Beiträge zu lesen ist, als würde man mit einem Paar zum Abendessen gehen, nachdem eine Untreue aufgedeckt wurde: Nein, im Ernst, wir sind uns näher als je zuvor. Vielleicht ist es wahr. Die Basis bei OpenAI ist eine ehrgeizige und missionsorientierte Truppe. Sie forderten fast einstimmig Altmans Rückkehr (obwohl einige Berichten zufolge seitdem erklärt haben, dass sie sich dazu unter Druck gesetzt fühlten). Und möglicherweise haben sie während der ganzen Tortur eine traumatische Bindung aufgebaut. Aber wird es dauern? Und was bedeutet all dieses Drama für den Sicherheitsansatz des Unternehmens im kommenden Jahr?

Eine unabhängige Untersuchung der Umstände von Altmans Sturz ist im Gange, und einige Beziehungen innerhalb des Unternehmens sind eindeutig angespannt. Brockman hat habe ein Bild gepostet von sich selbst mit Ilya Sutskever, dem sicherheitsbesessenen Chefwissenschaftler von OpenAI, geschmückt mit einem Herz-Emoji, aber Altmans Gefühle gegenüber Letzterem waren schwerer zu deuten. In seiner Erklärung nach seiner Rückkehr stellte Altman fest, dass das Unternehmen darüber diskutiere, wie Sutskever, der eine zentrale Rolle bei Altmans Sturz gespielt hatte, „seine Arbeit bei OpenAI fortsetzen kann“. (Die Implikation: Vielleicht kann er es nicht.) Wenn Sutskever aus dem Unternehmen gedrängt oder auf andere Weise seiner Autorität beraubt wird, könnte sich die Art und Weise ändern, wie OpenAI Gefahr und Geschwindigkeit des Fortschritts abwägt.

Steht OpenAI vor einem weiteren Durchbruch?

Während einer Podiumsdiskussion nur wenige Tage bevor Altman seinen Job als CEO verlor, erzählte er eine spannende Geschichte über den aktuellen Stand der KI-Forschung des Unternehmens. Ein paar Wochen zuvor war er dabei gewesen, als Mitglieder seines technischen Personals „die Grenzen der Entdeckung vorangetrieben“ hatten, sagte er. Altman lehnte es ab, weitere Details zu nennen, es sei denn, man zählt zusätzliche Metaphern mit, erwähnte jedoch, dass er seit der Gründung des Unternehmens nur vier Mal einen Fortschritt dieser Größenordnung erlebt hatte.

Während des fieberhaften Spekulationswochenendes nach Altmans Entlassung war es nur natürlich, sich zu fragen, ob diese Entdeckung die sicherheitsbewussten Vorstandsmitglieder von OpenAI verschreckt hatte. Wir wissen, dass Unternehmensforscher in den Wochen vor Altmans Entlassung Bedenken hinsichtlich eines neuen „Q*“-Algorithmus geäußert haben. Hatte die KI spontan die Quantengravitation herausgefunden? Nicht genau. Berichten zufolge hatte es lediglich einfache mathematische Probleme gelöst, dies könnte ihm aber durch Überlegungen auf der Grundlage erster Prinzipien gelungen sein. OpenAI hat noch keine offiziellen Informationen zu dieser Entdeckung veröffentlicht, sofern es überhaupt richtig ist, sie als Entdeckung zu betrachten. „Wie Sie sich vorstellen können, kann ich darüber nicht wirklich sprechen“, sagte mir Altman kürzlich, als ich ihn nach Q* fragte. Vielleicht hat das Unternehmen im neuen Jahr mehr zu sagen oder zu zeigen.

Hat Google ein Ass im Ärmel?

Als OpenAI im November 2022 seinen Chatbot mit großem Sprachmodell veröffentlichte, wurde Google auf dem falschen Fuß erwischt. Das Unternehmen hatte die Transformatorarchitektur erfunden, die LLMs ermöglicht, aber seine Ingenieure waren deutlich zurückgefallen. Bard, Googles Antwort auf ChatGPT, war zweitklassig.

Viele erwarteten, dass der Sprung von OpenAI nur vorübergehend sein würde. Google verfügt über eine Kriegskasse, die nur von Apple und Microsoft übertroffen wird, über eine erstklassige Computerinfrastruktur und Speicher potenzieller Trainingsdaten. Es gibt auch DeepMind, ein in London ansässiges KI-Labor, das das Unternehmen 2014 übernommen hat. Das Labor entwickelte die KIs, die Weltmeister im Schach und Go besiegten, und erschloss Geheimnisse der Proteinfaltung, die die Natur Wissenschaftlern zuvor verborgen hatte. Seine Forscher behaupteten kürzlich, dass eine andere von ihnen entwickelte KI neuartige Lösungen für seit langem bestehende Probleme der mathematischen Theorie vorschlägt. Google hatte DeepMind zunächst erlaubt, relativ unabhängig zu arbeiten, doch Anfang des Jahres fusionierte das Unternehmen das Labor mit Google Brain, seiner einheimischen KI-Gruppe. Die Menschen erwarteten Großes.

Dann vergingen Monate und Monate, ohne dass Google auch nur einen Veröffentlichungstermin für sein LLM der nächsten Generation, Gemini, bekannt gab. Die Verzögerungen könnten als Zeichen dafür gewertet werden, dass die Innovationskultur des Unternehmens stagniert. Oder ist Googles Langsamkeit vielleicht ein Zeichen seiner Ambitionen? Die letztere Möglichkeit scheint jetzt, da Gemini endlich veröffentlicht wurde, weniger wahrscheinlich und scheint nicht revolutionär zu sein. Sofern es im Jahr 2024 nicht zu einem überraschenden Durchbruch kommt, werden die Zweifel am Unternehmen – und am LLM-Paradigma – weiterhin bestehen bleiben.

Haben große Sprachmodelle bereits ihren Höhepunkt erreicht?

Ein Teil der Neuheit hat die LLM-basierte Software wie ChatGPT abgenutzt. Das liegt zum Teil an unserer eigenen Psychologie. „Wir passen uns ziemlich schnell an“, sagte mir Sutskever von OpenAI einmal. Er bat mich, darüber nachzudenken, wie schnell sich das Feld verändert hat. „Wenn man vier, fünf oder sechs Jahre zurückschaut, ist das, was wir jetzt tun, völlig unvorstellbar“, sagte er. Vielleicht hat er recht. Vor einem Jahrzehnt fürchteten sich viele von uns vor jeder Interaktion mit Siri mit seinem stockenden, unterbrechenden Stil. Jetzt haben wir Bots, die sich fließend über fast jedes Thema unterhalten, und es fällt uns schwer, beeindruckt zu bleiben.

KI-Forscher haben uns gesagt, dass diese Tools nur noch intelligenter werden; Sie haben die rohe Macht der Größe evangelisiert. Sie haben gesagt, dass, wenn wir mehr Daten in LLMs pumpen, daraus ungebeten neue Wunder hervorgehen werden. Uns wurde gesagt, wir sollten uns auf die Anbetung eines neuen Gottes vorbereiten Sandgottso genannt, weil seine Erkenntnis auf Silizium basiert, das aus geschmolzenem Sand besteht.

ChatGPT hat sich seit seiner ersten Veröffentlichung sicherlich verbessert. Es kann jetzt sprechen und Bilder analysieren. Die Antworten sind schärfer und die Benutzeroberfläche fühlt sich organischer an. Aber es verbessert sich nicht in einem Tempo, das darauf hindeutet, dass es sich in eine Gottheit verwandeln wird. Altman sagte, dass OpenAI mit der Entwicklung seines GPT-5-Modells begonnen habe. Das wird vielleicht nicht im Jahr 2024 herauskommen, aber wenn doch, sollten wir ein besseres Gefühl dafür haben, wie viel intelligenter Sprachmodelle werden können.

Wie wird sich KI auf die Wahl 2024 auswirken?

Unsere politische Kultur hat KI-Themen noch nicht vollständig in klar polarisierte Kategorien eingeteilt. Die Mehrheit der Erwachsenen gibt an, sich Sorgen über die Auswirkungen von KI auf ihr tägliches Leben zu machen, aber diese Sorgen sind weder rot noch blau kodiert. Das heißt nicht, dass der Moment der generativen KI völlig unschuldig an der amerikanischen Politik war. Anfang des Jahres sagten Führungskräfte von Unternehmen, die Chatbots und Bildgeneratoren herstellen, vor dem Kongress aus und nahmen an langwierigen Rundtischgesprächen im Weißen Haus teil. Viele KI-Produkte unterliegen mittlerweile auch einer weitreichenden Durchführungsverordnung.

Aber seitdem diese Technologien zum Mainstream geworden sind, haben wir keine große nationale Wahl mehr gehabt, geschweige denn eine, an der Donald Trump beteiligt war. Viele machten die Verbreitung von Lügen über soziale Medien für Trumps Sieg im Jahr 2016 verantwortlich und halfen ihm, nach seiner Niederlage im Jahr 2020 einen verschwörerischen Aufstand anzuzetteln. Aber die Instrumente der Fehlinformation, die bei diesen Wahlen eingesetzt wurden, waren im Vergleich zu denen, die im nächsten Jahr zur Verfügung stehen werden, grob.

Ein zwielichtiger Wahlkampfmitarbeiter könnte beispielsweise schnell und einfach ein überzeugendes Bild eines konkurrierenden Kandidaten heraufbeschwören, der mit Jeffrey Epstein lacht. Wenn das nicht hilft, könnten sie Bilder von Wahlhelfern hochzaubern, die in der Wahlnacht Wahlurnen vollstopfen, vielleicht aus einem Blickwinkel, der ihre fehlerhaften, sechsfingrigen Hände verdeckt. Es gibt Gründe zu der Annahme, dass diese Technologien keinen wesentlichen Einfluss auf die Wahl haben werden. Anfang dieses Jahres argumentierte mein Kollege Charlie Warzel, dass sich Menschen möglicherweise von KI-Bildern mit geringem Einsatz täuschen lassen – zum Beispiel vom Papst in einem Daunenmantel –, dass sie jedoch tendenziell skeptischer gegenüber hochsensiblen politischen Bildern sind. Hoffen wir, dass er recht hat.

Auch Soundfakes könnten mit von der Partie sein. Die eines Politikers Stimme können jetzt von der KI geklont und zum Generieren anstößiger Clips verwendet werden. Präsident Joe Biden und der frühere Präsident Trump sind schon so lange Persönlichkeiten des öffentlichen Lebens – und die Wahrnehmung der Wähler von ihnen ist so fest verankert –, dass sie sich möglicherweise gegen einen solchen Angriff wehren. Aber ein weniger bekannter Kandidat könnte durch eine gefälschte Audioaufnahme anfällig sein. Stellen Sie sich vor, dass während Barack Obamas erster Präsidentschaftskandidatur nur wenige Tage vor der Abstimmung geklonte Audioaufnahmen von ihm aufgetaucht wären, in denen er weiße Menschen in schillernder Sprache kritisierte. Bis schlechte Akteure im Eifer einer hart umkämpften Wahl mit diesen Bild- und Audiogeneratoren experimentieren, wissen wir nicht genau, wie sie missbraucht werden und ob ihr Missbrauch effektiv sein wird. In einem Jahr werden wir unsere Antwort haben.


source site

Leave a Reply