Es gibt keine KI | Der New Yorker

Als Informatiker mag ich den Begriff „KI“ nicht. Tatsächlich halte ich ihn für irreführend – vielleicht sogar ein wenig gefährlich. Jeder verwendet den Begriff bereits, und es mag etwas spät am Tag erscheinen, darüber zu streiten. Aber wir stehen am Beginn eines neuen technologischen Zeitalters – und der einfachste Weg, eine Technologie falsch zu verwalten, besteht darin, sie falsch zu verstehen.

Der Begriff „künstliche Intelligenz“ hat eine lange Geschichte – er wurde in den 1950er Jahren geprägt, in den frühen Tagen der Computer. In jüngerer Zeit sind Informatiker mit Filmen wie „Terminator“ und „Matrix“ und Charakteren wie Commander Data aus „Star Trek: The Next Generation“ aufgewachsen. Diese kulturellen Prüfsteine ​​sind in der Tech-Kultur zu einer fast religiösen Mythologie geworden. Es ist nur natürlich, dass Informatiker sich danach sehnen, KI zu entwickeln und einen lang gehegten Traum zu verwirklichen.

Auffallend ist jedoch, dass viele der Menschen, die den KI-Traum verfolgen, auch befürchten, dass dies den Weltuntergang bedeuten könnte. Selbst von Wissenschaftlern, die heute im Mittelpunkt der Bemühungen stehen, wird allgemein behauptet, dass das, was KI-Forscher tun, zur Vernichtung unserer Spezies oder zumindest zu großem Schaden für die Menschheit führen könnte, und zwar bald. In einer kürzlich durchgeführten Umfrage stimmte die Hälfte der KI-Wissenschaftler zu, dass die Wahrscheinlichkeit, dass die Menschheit durch KI zerstört würde, bei mindestens zehn Prozent liege. Sogar mein Kollege und Freund Sam Altman, der OpenAI leitet, hat ähnliche Kommentare abgegeben. Betreten Sie ein beliebiges Café im Silicon Valley und Sie können die gleiche Debatte hören: Eine Person sagt, dass der neue Code nur Code ist und dass die Leute das Sagen haben, aber eine andere argumentiert, dass jeder mit dieser Meinung einfach nicht versteht, wie tiefgründig das Neue ist Technik ist. Die Argumente sind nicht ganz rational: Wenn ich meine ängstlichsten Wissenschaftlerfreunde frage, wie es zu einer KI-Apokalypse kommen könnte, packen sie oft die Lähmung, die jemanden überkommt, der versucht, sich die Unendlichkeit vorzustellen. Sie sagen Dinge wie „Die Beschleunigung des Fortschritts wird an uns vorbeifliegen und wir werden nicht in der Lage sein, zu begreifen, was passiert.“

Ich bin mit dieser Art zu reden nicht einverstanden. Viele meiner Freunde und Kollegen sind tief beeindruckt von ihren Erfahrungen mit den neuesten großen Modellen wie GPT-4 und halten praktisch Mahnwachen, um auf das Erscheinen einer tieferen Intelligenz zu warten. Meine Position ist nicht, dass sie falsch liegen, sondern dass wir uns nicht sicher sein können; wir behalten uns vor, die Software unterschiedlich zu klassifizieren.

Die pragmatischste Position ist, KI als Werkzeug und nicht als Kreatur zu betrachten. Meine Einstellung schließt die Möglichkeit von Gefahren nicht aus: Wie auch immer wir darüber denken, wir können unsere neue Technologie immer noch schlecht entwerfen und betreiben, auf eine Weise, die uns schaden oder sogar zu unserem Untergang führen kann. Die Mythologisierung der Technologie macht es nur wahrscheinlicher, dass wir sie nicht gut bedienen – und diese Art des Denkens schränkt unsere Vorstellungskraft ein und bindet sie an die Träume von gestern. Wir können besser arbeiten, wenn wir davon ausgehen, dass es keine KI gibt. Je früher wir dies verstehen, desto eher werden wir damit beginnen, unsere neue Technologie intelligent zu verwalten.

Wenn die neue Technologie keine echte künstliche Intelligenz ist, was ist sie dann? Meiner Ansicht nach lässt sich das, was wir heute aufbauen, am besten als eine innovative Form der sozialen Zusammenarbeit verstehen.

Ein Programm wie GPT-4 von OpenAI, das Sätze auf Bestellung schreiben kann, ist so etwas wie eine Wikipedia-Version, die viel mehr Daten enthält, die mithilfe von Statistiken zusammengefügt werden. Programme, die Bilder auf Bestellung erstellen, sind so etwas wie eine Version der Online-Bildersuche, aber mit einem System zum Kombinieren der Bilder. In beiden Fällen sind es Menschen, die den Text geschrieben und die Bilder geliefert haben. Die neuen Programme mischen die Arbeit des menschlichen Geistes. Innovativ ist, dass der Mashup-Prozess geführt und eingeschränkt wurde, sodass die Ergebnisse brauchbar und oft auffallend sind. Dies ist eine bedeutende Errungenschaft und es wert, gefeiert zu werden – aber es kann eher als Erhellung zuvor verborgener Übereinstimmungen zwischen menschlichen Kreationen betrachtet werden als als die Erfindung eines neuen Geistes.

Soweit ich das beurteilen kann, schmeichelt mein Blick der Technik. Denn was ist Zivilisation anderes als soziale Zusammenarbeit? KI als eine Möglichkeit der Zusammenarbeit zu sehen, anstatt als Technologie zur Erschaffung unabhängiger, intelligenter Wesen, macht sie vielleicht weniger mysteriös – weniger ähnlich HAL 9000 oder Commander-Daten. Aber das ist gut so, denn Geheimnisse machen Missmanagement nur wahrscheinlicher.

Es ist einfach, den neuen Systemen Intelligenz zuzuschreiben; Sie haben eine Flexibilität und Unberechenbarkeit, die wir normalerweise nicht mit Computertechnologie in Verbindung bringen. Aber diese Flexibilität ergibt sich aus einfacher Mathematik. Ein großes Sprachmodell wie GPT-4 enthält eine kumulative Aufzeichnung darüber, wie bestimmte Wörter in den riesigen Textmengen zusammenfallen, die das Programm verarbeitet hat. Diese gigantische Tabellierung führt dazu, dass das System viele Grammatikmuster intrinsisch annähert, zusammen mit Aspekten dessen, was man als Autorenstil bezeichnen könnte. Wenn Sie eine Abfrage eingeben, die aus bestimmten Wörtern in einer bestimmten Reihenfolge besteht, wird Ihre Eingabe mit dem korreliert, was im Modell enthalten ist. Die Ergebnisse können aufgrund der Komplexität der Korrelation von Milliarden von Einträgen jedes Mal etwas anders ausfallen.

Die sich nicht wiederholende Natur dieses Prozesses kann dazu führen, dass er sich lebendig anfühlt. Und in gewisser Weise kann es die neuen Systeme menschenzentrierter machen. Wenn Sie ein neues Bild mit einem KI-Tool synthetisieren, erhalten Sie möglicherweise eine Reihe ähnlicher Optionen, aus denen Sie dann auswählen müssen. Wenn Sie ein Student sind, der ein LLM verwendet, um bei einer Aufsatzaufgabe zu schummeln, können Sie die vom Modell generierten Optionen lesen und eine auswählen. Eine Technologie, die sich nicht wiederholt, erfordert ein wenig menschliche Wahl.

Viele der Verwendungen von KI, die ich mag, beruhen auf Vorteilen, die wir gewinnen, wenn Computer weniger starr werden. Digitales Zeug, wie wir es kennen, hat eine spröde Qualität, die die Menschen dazu zwingt, sich daran anzupassen, anstatt es zu bewerten. Wir alle haben die Qual ertragen müssen, einer armen Seele in einer Arztpraxis zuzusehen, wie sie darum kämpft, das Erwartete auf einem Bildschirm an der Rezeption zu tun. Das Gesicht verzieht sich; Die Menschheit wird untergraben. Die Notwendigkeit, sich an digitale Designs anzupassen, hat eine allgemeine Erwartung menschlicher Unterwürfigkeit geschaffen. Ein positiver Aspekt der KI ist, dass sie das Ende dieser Folter bedeuten könnte, wenn wir sie richtig einsetzen. Wir können uns jetzt eine Website vorstellen, die sich für jemanden, der beispielsweise farbenblind ist, im Handumdrehen neu formuliert, oder eine Website, die sich an die besonderen kognitiven Fähigkeiten und Stile einer Person anpasst. Ein Humanist wie ich möchte, dass die Menschen mehr Kontrolle haben, anstatt sich übermäßig von der Technologie beeinflussen oder leiten zu lassen. Flexibilität kann uns etwas Entscheidungsfreiheit zurückgeben.

Trotz dieser möglichen Vorteile ist es jedoch mehr als vernünftig, sich Sorgen zu machen, dass die neue Technologie uns auf eine Weise herumschubsen wird, die wir nicht mögen oder verstehen. Kürzlich haben einige Freunde von mir eine Petition in Umlauf gebracht, in der sie um eine Pause bei der ehrgeizigsten KI-Entwicklung baten. Die Idee war, dass wir während der Pause an der Politik arbeiten würden. Die Petition wurde von einigen in unserer Gemeinde unterzeichnet, von anderen jedoch nicht. Ich fand die Vorstellung zu verschwommen – welcher Grad an Fortschritt würde bedeuten, dass die Pause enden könnte? Jede Woche erhalte ich neue, aber immer vage Leitbilder von Organisationen, die versuchen, Prozesse zur Festlegung von KI-Richtlinien zu initiieren.

Diese Bemühungen sind gut gemeint, aber sie erscheinen mir aussichtslos. Jahrelang habe ich an den Datenschutzrichtlinien der EU gearbeitet, und mir wurde klar, dass wir nicht wissen, was Datenschutz ist. Es ist ein Begriff, den wir jeden Tag verwenden, und er kann im Kontext sinnvoll sein, aber wir können ihn nicht gut genug festnageln, um ihn zu verallgemeinern. Am nächsten kommen wir einer Definition von Datenschutz wahrscheinlich „das Recht, in Ruhe gelassen zu werden“, aber das scheint in einer Zeit, in der wir ständig von digitalen Diensten abhängig sind, kurios zu sein. Im Zusammenhang mit KI erscheint „das Recht, nicht durch Berechnung manipuliert zu werden“ fast richtig, sagt aber nicht alles, was wir uns wünschen.

KI-Politikgespräche werden dominiert von Begriffen wie „Ausrichtung“ (ist das, was eine KI „will“, mit dem abgestimmt, was Menschen wollen?), „Sicherheit“ (können wir Leitplanken vorhersehen, die eine schlechte KI vereiteln?) und „Fairness“ ( können wir allen Möglichkeiten vorbeugen, wie ein Programm bestimmte Personen mit Ungunst behandeln könnte?). Die Gemeinschaft hat sicherlich viel Gutes erreicht, indem sie diese Ideen verfolgt hat, aber das hat unsere Befürchtungen nicht zerstreut. Am Ende motivieren wir Menschen dazu, zu versuchen, die vagen Schutzmaßnahmen zu umgehen, die wir eingerichtet haben. Obwohl der Schutz hilft, wird das Ganze zu einem Spiel – als würde man versuchen, einen hinterhältigen Geist zu überlisten. Das Ergebnis ist, dass die KI-Forschungsgemeinschaft die Warnung kommuniziert, dass ihre Kreationen immer noch bald die gesamte Menschheit töten könnten, während sie immer dringendere, aber schwülstige, erwägende Prozesse vorschlägt.

Kürzlich habe ich ein informelles Experiment versucht, indem ich Kollegen anrief und sie fragte, ob es etwas Bestimmtes gibt, worüber wir uns alle einig zu sein scheinen. Ich habe festgestellt, dass es eine Grundlage der Übereinstimmung gibt. Wir scheinen uns alle einig zu sein, dass Deepfakes – falsche, aber echt wirkende Bilder, Videos usw. – von den Programmen, die sie erstellen, als solche gekennzeichnet werden sollten. Kommunikationen, die von künstlichen Menschen stammen, und automatisierte Interaktionen, die darauf abzielen, das Denken oder Handeln eines Menschen zu manipulieren, sollten ebenfalls gekennzeichnet werden. Wir stimmen auch zu, dass diese Labels mit Maßnahmen versehen sein sollten, die ergriffen werden können. Die Menschen sollten in der Lage sein zu verstehen, was sie sehen, und im Gegenzug angemessene Wahlmöglichkeiten haben.

source site

Leave a Reply