KI-Experte warnt davor, dass der von Elon Musk unterzeichnete Brief nicht weit genug geht, sagt: „Buchstäblich jeder auf der Erde wird sterben“

Ein Experte für künstliche Intelligenz mit mehr als zwei Jahrzehnten Erfahrung in der Untersuchung der KI-Sicherheit sagte, ein offener Brief, in dem ein sechsmonatiges Moratorium für die Entwicklung leistungsstarker KI-Systeme gefordert wird, gehe nicht weit genug.

Eliezer Yudkowsky, ein Entscheidungstheoretiker am Machine Intelligence Research Institute, schrieb kürzlich in einem Kommentar, dass die sechsmonatige „Pause“ bei der Entwicklung von „KI-Systemen, die leistungsfähiger als GPT-4“ sind, die von Tesla-CEO Elon Musk und Hunderten von anderen gefordert wurde andere Innovatoren und Experten untertreiben den “Ernst der Lage”. Er würde noch weiter gehen und ein „unbefristetes und weltweites“ Moratorium für neue große KI-Lernmodelle einführen.

Der vom Future of Life Institute herausgegebene und von mehr als 1.000 Personen, darunter Musk und Apple-Mitbegründer Steve Wozniak, unterzeichnete Brief argumentierte, dass Sicherheitsprotokolle von unabhängigen Aufsehern entwickelt werden müssten, um die Zukunft von KI-Systemen zu lenken.

„Leistungsstarke KI-Systeme sollten erst entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind“, heißt es in dem Schreiben. Yudkowsky hält dies für unzureichend.

ELON MUSK, MITBEGRÜNDER VON APPLE, ANDERE TECH-EXPERTEN RUFEN ZUR PAUSE BEI ​​„GIANT AI EXPERIMENTS“: „DANGEROUS RACE“

OpenAI ChatGPT auf Mobilgeräten mit AI Brain auf dem Bildschirm, 22. Januar 2023, in Brüssel. (Jonathan Raa/NurPhoto über Getty Images)

„Das Schlüsselproblem ist nicht ‚menschlich-konkurrierende‘ Intelligenz (wie es in dem offenen Brief heißt); es geht darum, was passiert, nachdem KI zu intelligenter als menschlicher Intelligenz wird“, schrieb Yudkowsky für Newsweek.

„Viele Forscher, die sich mit diesen Themen beschäftigen, einschließlich mir selbst, erwarten, dass das wahrscheinlichste Ergebnis des Baus einer übermenschlich intelligenten KI unter etwas, das auch nur entfernt wie die aktuellen Umstände ist, darin besteht, dass buchstäblich jeder auf der Erde sterben wird“, behauptet er. „Nicht wie in ‚vielleicht ein entfernter Zufall‘, sondern wie in ‚das ist das Offensichtliche, was passieren würde‘.“

KÜNSTLICHE INTELLIGENZ „PATE“ ÜBER KI, DIE MÖGLICHERWEISE DIE MENSCHHEIT AUSWISCHEN KANN: „ES IST NICHT UNDENKBAR“

Sam Altman, CEO von OpenAI, spricht während einer Grundsatzrede zur Ankündigung der ChatGPT-Integration für Bing bei Microsoft in Redmond, Washington, am 7. Februar 2023. Das neue GPT-4-Lernmodell von OpenAI ist das fortschrittlichste KI-System, das bisher entwickelt wurde und in der Lage ist, und Iteration mit Benutzern bei kreativen und technischen Schreibaufgaben.

Sam Altman, CEO von OpenAI, spricht während einer Grundsatzrede zur Ankündigung der ChatGPT-Integration für Bing bei Microsoft in Redmond, Washington, am 7. Februar 2023. Das neue GPT-4-Lernmodell von OpenAI ist das fortschrittlichste KI-System, das bisher entwickelt wurde und in der Lage ist, und Iteration mit Benutzern bei kreativen und technischen Schreibaufgaben. (JASON REDMOND/AFP über Getty Images)

Für Yudkowsky besteht das Problem darin, dass eine KI, die intelligenter als Menschen ist, ihren Schöpfern möglicherweise nicht gehorcht und sich nicht um Menschenleben kümmert. Denken Sie nicht an „Terminator“ – „Stellen Sie sich eine ganze Alien-Zivilisation vor, die in Millionenfacher menschlicher Geschwindigkeit denkt und zunächst auf Computer beschränkt ist – in einer Welt von Kreaturen, die aus ihrer Perspektive sehr dumm und sehr langsam sind“, schreibt er.

Yudkowsky warnt davor, dass es keinen vorgeschlagenen Plan für den Umgang mit einer Superintelligenz gibt, die entscheidet, dass die optimalste Lösung für jedes Problem, das sie lösen soll, alles Leben auf der Erde vernichtet. Er äußert auch Bedenken, dass KI-Forscher nicht wirklich wissen, ob Lernmodelle „selbstbewusst“ geworden sind und ob es ethisch vertretbar ist, sie zu besitzen, wenn sie es sind.

DEMOKRATEN UND REPUBLIKANER VEREINIGEN SICH, UM AUFRUFE ZU REGULIEREN, DIE KI-ENTWICKLUNG ZU REGULIEREN: „KONGRESS MUSS SICH ENGAGIEREN“

Elon Musk, CEO von Tesla, SpaceX und Twitter, und mehr als 1.000 Technologieführer und Experten für künstliche Intelligenz fordern eine vorübergehende Pause bei der Entwicklung von KI-Systemen, die leistungsfähiger sind als GPT-4 von OpenAI, und warnen vor Risiken für Gesellschaft und Zivilisation.

Elon Musk, CEO von Tesla, SpaceX und Twitter, und mehr als 1.000 Technologieführer und Experten für künstliche Intelligenz fordern eine vorübergehende Pause bei der Entwicklung von KI-Systemen, die leistungsfähiger sind als GPT-4 von OpenAI, und warnen vor Risiken für Gesellschaft und Zivilisation. (AP Photo/Susan Walsh, Akte)

Sechs Monate seien nicht genug Zeit, um einen Plan zu entwickeln, argumentiert er. „Es hat mehr als 60 Jahre gedauert, seit der Begriff der künstlichen Intelligenz zum ersten Mal vorgeschlagen und untersucht wurde, bis wir die heutigen Fähigkeiten erreicht haben. Die Lösung der Sicherheit übermenschlicher Intelligenz – nicht perfekte Sicherheit, Sicherheit im Sinne von ‚nicht buchstäblich jeden töten‘ – könnte sehr vernünftigerweise mindestens halb so lange dauern.”

Stattdessen schlägt Yudkowsky eine internationale Zusammenarbeit vor, sogar zwischen Rivalen wie den USA und China, um die Entwicklung leistungsfähiger KI-Systeme zu stoppen. Er sagt, dies sei wichtiger als „einen vollständigen nuklearen Austausch zu verhindern“, und dass die Länder sogar den Einsatz von Atomwaffen in Betracht ziehen sollten, „wenn dies erforderlich ist, um das Risiko großer KI-Trainingsläufe zu verringern“.

KLICKEN SIE HIER, UM DIE FOX NEWS APP ZU ERHALTEN

„Alles abschalten“, schreibt Yudkowsky. „Schließen Sie alle großen GPU-Cluster (die großen Computerfarmen, in denen die leistungsstärksten KIs verfeinert werden). Schließen Sie alle großen Trainingsläufe. Setzen Sie eine Obergrenze dafür, wie viel Rechenleistung jeder zum Trainieren eines KI-Systems verwenden darf, und verschieben Sie es in den kommenden Jahren nach unten, um effizientere Trainingsalgorithmen zu kompensieren. Keine Ausnahmen für Regierungen und Militärs.

Yudkowskys drastische Warnung kommt, da Software für künstliche Intelligenz immer beliebter wird. ChatGPT von OpenAI wurde kürzlich veröffentlicht Chatbot mit künstlicher Intelligenz Das hat die Benutzer schockiert, indem es in der Lage war, Songs zu komponieren, Inhalte zu erstellen und sogar Code zu schreiben.

„Wir müssen hier vorsichtig sein“, sagte Sam Altman, CEO von OpenAI, über die Gründung seines Unternehmens Anfang dieses Monats. „Ich denke, die Leute sollten froh sein, dass wir ein bisschen Angst davor haben.“

Andrea Vacchiano von Fox News hat zu diesem Bericht beigetragen.

source site

Leave a Reply