KI-Pionier sagt, seine Bedrohung für die Welt könnte „dringender“ sein als der Klimawandel

LONDON, 5. Mai (Reuters) – Künstliche Intelligenz könnte eine „dringendere“ Bedrohung für die Menschheit darstellen als der Klimawandel, sagte KI-Pionier Geoffrey Hinton am Freitag in einem Interview mit Reuters.

Geoffrey Hinton, weithin als einer der „Godfathers of AI“ bekannt, gab kürzlich bekannt, dass er Alphabet (GOOGL.O) nach einem Jahrzehnt in der Firma verlassen hat, und sagte, er wolle sich zu den Risiken der Technologie äußern, ohne dass dies seinen ehemaligen betrifft Arbeitgeber.

Hintons Arbeit gilt als wesentlich für die Entwicklung zeitgenössischer KI-Systeme. 1986 war er Co-Autor der bahnbrechenden Arbeit „Learning Representations by Back-Propagating Errors“, ein Meilenstein in der Entwicklung der neuronalen Netze, die der KI-Technologie zugrunde liegen. 2018 wurde er für seine bahnbrechenden Forschungsergebnisse mit dem Turing Award ausgezeichnet.

Aber er gehört jetzt zu einer wachsenden Zahl von Technologieführern, die öffentlich ihre Besorgnis über die mögliche Bedrohung durch KI zum Ausdruck bringen, wenn Maschinen eine größere Intelligenz als Menschen erreichen und die Kontrolle über den Planeten übernehmen würden.

“Ich möchte den Klimawandel nicht abwerten. Ich möchte nicht sagen: ‘Du solltest dir keine Sorgen um den Klimawandel machen.’ Das ist auch ein großes Risiko”, sagte Hinton. „Aber ich denke, das könnte am Ende dringender werden.“

Er fügte hinzu: „Mit dem Klimawandel ist es sehr einfach zu empfehlen, was Sie tun sollten: Sie hören einfach auf, Kohlenstoff zu verbrennen. Wenn Sie das tun, werden die Dinge irgendwann in Ordnung sein. Dafür ist es überhaupt nicht klar, was Sie tun sollten.“

Das von Microsoft unterstützte (MSFT.O) OpenAI gab im November den Startschuss für ein technologisches Wettrüsten, als es den KI-gestützten Chatbot ChatGPT der Öffentlichkeit zugänglich machte. Es wurde bald zur am schnellsten wachsenden App in der Geschichte und erreichte in zwei Monaten 100 Millionen monatliche Nutzer.

Im April unterzeichnete Elon Musk, CEO von Twitter, gemeinsam mit Tausenden einen offenen Brief, in dem eine sechsmonatige Pause in der Entwicklung von Systemen gefordert wird, die leistungsfähiger sind als das kürzlich eingeführte GPT-4 von OpenAI.

Zu den Unterzeichnern gehörten Emad Mostaque, CEO von Stability AI, Forscher von DeepMind, das zu Alphabet gehört, und die anderen KI-Pioniere Yoshua Bengio und Stuart Russell.

Während Hinton die Besorgnis der Unterzeichner teilt, dass KI sich als existenzielle Bedrohung für die Menschheit erweisen könnte, war er nicht damit einverstanden, die Forschung zu unterbrechen.

„Das ist völlig unrealistisch“, sagte er. „Ich bin im Lager, das dies für ein existenzielles Risiko hält, und es ist nah genug, dass wir jetzt sehr hart arbeiten und viele Ressourcen darauf verwenden sollten, herauszufinden, was wir dagegen tun können.“

In der Europäischen Union reagierte ein Ausschuss von Gesetzgebern auf den von Musk unterstützten Brief und forderte US-Präsident Joe Biden auf, mit der Präsidentin der Europäischen Kommission, Ursula von der Leyen, einen globalen Gipfel über die zukünftige Ausrichtung der Technologie einzuberufen.

Letzte Woche einigte sich das Komitee auf eine bahnbrechende Reihe von Vorschlägen zur generativen KI, die Unternehmen wie OpenAI dazu zwingen würden, jegliches urheberrechtlich geschütztes Material offenzulegen, das zum Trainieren ihrer Modelle verwendet wird.

In der Zwischenzeit führte Biden im Weißen Haus Gespräche mit einer Reihe von KI-Unternehmensführern, darunter Alphabet-CEO Sundar Pichai und OpenAI-CEO Sam Altman, und versprach eine „offene und konstruktive Diskussion“ über die Notwendigkeit für Unternehmen, ihre Systeme transparenter zu machen.

„Die Technologieführer haben das beste Verständnis dafür, und die Politiker müssen einbezogen werden“, sagte Hinton. „Es betrifft uns alle, also müssen wir alle darüber nachdenken.“

Berichterstattung von Martin Coulter, Redaktion von Deepa Babington

Unsere Standards: Die Thomson Reuters Trust Principles.

source site

Leave a Reply