KI ist wie … Atomwaffen?

Die Sorge war, wie Edward Teller es sah, buchstäblich das Ende der Welt. Er hatte die Berechnungen durchgeführt, und es gab eine reale Möglichkeit, sagte er seinen Kollegen vom Manhattan-Projekt im Jahr 1942, dass die Explosion eine Kettenreaktion auslösen würde, als sie die erste Atombombe der Welt zur Detonation brachten. Die Atmosphäre würde sich entzünden. Alles Leben auf der Erde würde verbrannt werden. Einige von Tellers Kollegen verwarfen die Idee, andere nicht. Wenn auch nur die geringste Möglichkeit einer atmosphärischen Zündung bestünde, sagte Arthur Compton, der Direktor eines Labors des Manhattan-Projekts in Chicago, sollten alle Arbeiten an der Bombe eingestellt werden. „Besser die Sklaverei der Nazis akzeptieren“, schrieb er später, „als die Chance zu nutzen, den letzten Vorhang über die Menschheit zu ziehen.“

Ich biete diese Geschichte als Analogie für – oder vielleicht als Kontrast zu – unserem gegenwärtigen KI-Moment an. In nur wenigen Monaten ist die Neuheit von ChatGPT einer völligen Manie gewichen. Plötzlich ist KI überall. Ist das der Beginn einer neuen Fehlinformationskrise? Eine neue Krise des geistigen Eigentums? Das Ende des College-Aufsatzes? Von der Angestelltenarbeit? Einige machen sich, wie Compton vor 80 Jahren, Sorgen um die Zukunft der Menschheit und haben sich dafür ausgesprochen, die KI-Entwicklung anzuhalten oder zu verlangsamen; andere sagen, es ist bereits zu spät.

Angesichts solcher Aufregung, Unsicherheit und Angst ist das Beste, was man tun kann, zu versuchen, eine gute Analogie zu finden – eine Möglichkeit, diese ungewohnte neue Technologie ein wenig vertrauter zu machen. KI ist Feuer. AI ist Steroide. KI ist ein außerirdisches Kleinkind. (Als ich nach einer eigenen Analogie fragte, schlug GPT-4 die Büchse der Pandora vor – nicht sehr beruhigend.) Einige dieser Analogien sind, um es milde auszudrücken, besser als andere. Einige davon sind sogar nützlich.

Angesichts der letzten drei Jahre ist es kein Wunder, dass es viele pandemiebezogene Analogien gibt. KI-Entwicklung hat gewesen verglichen B. zur Gain-of-Function-Forschung. Befürworter der letzteren Arbeit, bei der potenziell tödliche Viren in einer kontrollierten Laborumgebung verstärkt werden, sagen, dass dies unerlässlich ist, um die nächste Pandemie zu stoppen. Gegner sagen, dass es weniger wahrscheinlich ist, eine Katastrophe zu verhindern, als eine zu verursachen – sei es durch ein versehentliches Leck oder einen Akt des Bioterrorismus.

Auf einer wörtlichen Ebene funktioniert diese Analogie ziemlich gut. KI-Entwicklung ist wirklich eine Art Gain-of-Function-Forschung – außer dass Algorithmen und nicht Viren die Dinge sind, die die Funktionen gewinnen. Außerdem versprechen beide kurzfristige Vorteile: Dieses Experiment könnte helfen, die nächste Pandemie zu verhindern; Diese KI könnte dabei helfen Ihren Krebs heilen. Und beide sind mit potenziellen, weltumwälzenden Risiken verbunden: Dieses Experiment könnte dabei helfen Ursache eine Pandemie, die um ein Vielfaches tödlicher ist als die, die wir gerade durchgemacht haben; Diese KI könnte die Menschheit vollständig auslöschen. Es ist nicht einfach, die Wahrscheinlichkeiten für jedes dieser Ergebnisse, ob gut oder schlecht, zu beziffern. Ernsthafte Menschen widersprechen vehement ihrer Wahrscheinlichkeit.

Was die Gain-of-Function-Analogie nicht erfasst, sind die Motivationen und Anreize, die die KI-Entwicklung vorantreiben. Die experimentelle Virologie ist ein akademisches Unterfangen, das meist in Universitätslabors von Universitätsprofessoren durchgeführt wird, zumindest mit dem Ziel, Menschen zu schützen. Es ist kein lukratives Geschäft. Weder die Wissenschaftler noch die Institutionen, die sie vertreten, sind dabei, reich zu werden. Dasselbe kann man nicht sagen, wenn es um KI geht. Zwei Privatunternehmen mit Milliardengewinnen, Microsoft (in Partnerschaft mit OpenAI) und Google (in Partnerschaft mit Anthropic), sind in einen Kampf um die KI-Vorherrschaft verwickelt. Selbst die kleineren Akteure der Branche werden mit Bargeld überschwemmt. Anfang dieses Jahres kündigten vier führende KI-Forscher bei Google, um ihr eigenes Unternehmen zu gründen, obwohl sie nicht genau wussten, was es tun würde; etwa eine Woche später hatte es eine Bewertung von 100 Millionen Dollar. Insofern ist die bessere Analogie …

Sozialen Medien. Vor zwei Jahrzehnten gab es viel frisches Geld mit Technologie zu verdienen, und man verdiente es nicht, indem man langsamer wurde oder herumwartete oder über solche Kleinigkeiten wie das Schicksal der Demokratie schwankte. Private Unternehmen bewegten sich schnell auf die Gefahr hin, die menschliche Zivilisation zu brechen, zur Hölle mit den Hassern. Die Vorschriften hielten nicht Schritt. Dasselbe könnte man über die heutige KI sagen.

Das Problem mit dem Social-Media-Vergleich ist, dass er das schiere Zerstörungspotenzial von KI unterschätzt. So schädlich die sozialen Medien auch waren, sie stellen keine existenzielle Bedrohung dar. Auch scheint es keinem Land einen sehr bedeutenden strategischen Vorteil gegenüber ausländischen Gegnern verschafft zu haben, ungeachtet der Sorgen um TikTok. Dasselbe kann man von KI nicht sagen. Insofern ist die bessere Analogie …

Atomwaffen. Dieser Vergleich erfasst sowohl die Schwere der Bedrohung als auch den wahrscheinlichen Ursprung dieser Bedrohung. Nur wenige Personen konnten die kolossalen Ressourcen und das technische Fachwissen aufbringen, die zum Bau und Einsatz einer Atombombe erforderlich sind. Zum Glück sind Atomwaffen die Domäne der Nationalstaaten. Die KI-Forschung hat ähnlich hohe Eintrittsbarrieren und eine ähnliche globale geopolitische Dynamik. Das KI-Wettrüsten zwischen den USA und China ist im Gange, und Tech-Führungskräfte berufen sich bereits darauf, um so schnell wie möglich zu handeln. Wie im Fall der Atomwaffenforschung war die Berufung auf den internationalen Wettbewerb ein Mittel, um die Bitten, die Bremse zu betätigen, zurückzuweisen.

Aber die Nuklearwaffentechnologie ist viel enger gefasst als KI. Der Nutzen von Atomwaffen ist rein militärisch; und Regierungen, nicht Unternehmen oder Einzelpersonen, bauen und verwenden sie. Das macht ihre Gefahren weniger diffus als die aus der KI-Forschung. Insofern ist die bessere Analogie …

Elektrizität. Eine Säge dient zum Schneiden, ein Stift zum Schreiben, ein Hammer zum Einschlagen von Nägeln. Diese Dinge sind Werkzeuge; jeder hat eine bestimmte Funktion. Strom nicht. Es ist weniger ein Werkzeug als eine Kraft, eher ein Koeffizient als eine Konstante, die praktisch alle Aspekte des Lebens durchdringt. KI ist auch so – oder könnte es sein.

Abgesehen davon, dass Elektrizität nie (wirklich) drohte, uns alle zu töten. KI mag diffus sein, aber sie ist auch bedrohlich. Nicht einmal die nukleare Analogie erfasst die Art der Bedrohung ganz. Vergessen Sie die Ängste der amerikanischen und sowjetischen Führer aus der Zeit des Kalten Krieges, deren Finger über kleinen roten Knöpfen schwebten. Die größte Bedrohung durch superintelligente KI besteht nicht darin, dass unsere Gegner sie gegen uns einsetzen werden. Es ist die superintelligente KI selbst. Insofern ist die bessere Analogie …

Tellers Angst vor atmosphärischer Entzündung. Sobald Sie die Bombe gezündet haben – sobald Sie die superintelligente KI gebaut haben – gibt es kein Zurück mehr. Entweder entzündet sich die Atmosphäre oder nicht. Keine Wiederholungen. Am Ende stellte sich Tellers Sorge als unbegründet heraus. Weitere Berechnungen zeigten, dass sich die Atmosphäre nicht entzünden würde – obwohl es zwei japanische Städte schließlich taten – und das Manhattan-Projekt vorangetrieben wurde.

Keine weiteren Berechnungen werden die Möglichkeit einer KI-Apokalypse ausschließen. Die Teller-Analogie geht wie alle anderen nur so weit. Bis zu einem gewissen Grad liegt das in der Natur von Analogien: Sie sind aufschlussreich, aber unvollständig. Aber es spricht auch für die weitreichende Natur der KI. Es umfasst Elemente der Gain-of-Function-Forschung, sozialer Medien und Atomwaffen. Es ist wie alle von ihnen – und auf diese Weise wie keiner von ihnen.


source site

Leave a Reply