Ex-Google-Chef Eric Schmidt sagt, KI könnte die Menschheit in fünf Jahren gefährden – da er die Verwüstung mit der Atombombe in Nagasaki und Hiroshima vergleicht

Ein anderer ehemaliger Google-Chef hat eine apokalyptische Warnung vor künstlicher Intelligenz ausgesprochen – er sagte, sie könne Menschen in fünf Jahren „gefährden“.

Der Milliardär Eric Schmidt, der von 2001 bis 2011 CEO von Google war, sagte, es gebe nicht genügend Schutzmaßnahmen für KI und es sei nur eine Frage der Zeit, bis die Menschen die Kontrolle über die Technologie verlieren würden.

Er verwies auf den Atomwaffenabwurf in Japan als Warnung, dass ohne entsprechende Vorschriften möglicherweise nicht genügend Zeit bleibt, um das Chaos nach den potenziell verheerenden Auswirkungen auf die Gesellschaft zu beseitigen.

Bei einem Gesundheitsgipfel am Dienstag sagte Schmidt: „Nach Nagasaki und Hiroshima hat es 18 Jahre gedauert, bis man zu einer Einigung über Testverbote und ähnliches kam.“ So viel Zeit haben wir heute nicht.“

Eric Schmidt warnte davor, dass die künstliche Intelligenz reguliert werden müsse, da sie innerhalb der nächsten fünf Jahre eine erhebliche Bedrohung für die Menschheit darstellen könne.

Schmidt glaubte zuvor, dass es 20 Jahre dauern könnte, bis KI eine Gefahr für die Gesellschaft darstellt, wie zum Beispiel den Zugang zu Waffen, aber dieser Zeitrahmen scheint nun schnell näher zu rücken, sagte Schmidt auf dem Axios AI+-Gipfel in Washington, D.C

Er meinte, dass die einzige Möglichkeit, dieser Art von Unvermeidlichkeit entgegenzuwirken, darin besteht, ein internationales Gremium ähnlich dem Zwischenstaatlichen Ausschuss für Klimaänderungen (IPCC) einzurichten, um „genaue Informationen an politische Entscheidungsträger weiterzugeben“, die die Dringlichkeit der Regulierung von KI vorantreiben und ermöglichen werden fordert sie auf, sofort Maßnahmen zu ergreifen.

Schmidt ist neben dem ehemaligen Google-Ingenieur Blake Lemoine, dem ehemaligen Chief Business Officer Mo Gawdat, dem Informatiker Timnit Gebru und natürlich dem Paten der KI selbst, Geoffrey Hinton, der jüngste ehemalige Google-Mitarbeiter, der vor den Auswirkungen der KI warnt.

Hinton, dem die Entwicklung und Weiterentwicklung der KI zugeschrieben wird, sagte, er habe Google im April verlassen, um die Menschen vor den Gefahren der imposanten Technologie zu warnen.

„Ich tröste mich mit der üblichen Ausrede: Wenn ich es nicht getan hätte, hätte es jemand anderes getan“, sagte Hinton der New York Times.

Er sprach über die Voreingenommenheit und Fehlinformationen, die durch KI hervorgerufen werden, und sagte, dass die sich schnell entwickelnde Technologie eine Welt schaffen könnte, in der viele „nicht mehr wissen können, was wahr ist“.

„Die Idee, dass dieses Zeug tatsächlich schlauer werden könnte als Menschen – das haben einige Leute geglaubt“, sagte Hinton der Verkaufsstelle. „Aber die meisten Leute dachten, es sei weit weg. Und ich dachte, es wäre weit weg. Ich dachte, dass es noch 30 bis 50 Jahre oder noch länger dauern würde. Offensichtlich denke ich das nicht mehr.‘

Künstliche Intelligenz könnte mit ihrem immer höheren Maß an Intelligenz und Fehlinformationen eine „existentielle Bedrohung“ für die Menschheit darstellen.

Künstliche Intelligenz könnte mit ihrem immer höheren Maß an Intelligenz und Fehlinformationen eine „existentielle Bedrohung“ für die Menschheit darstellen.

KI verbreitet bei Technik-Gurus Angst vor ihrem sich entwickelnden Intelligenzniveau und ihrer Fähigkeit, Menschen in Arbeitsplätzen zu ersetzen. Sie erzeugt schädliche Stereotypen, Voreingenommenheit und Fehlinformationen und bringt den Wunsch zum Ausdruck, nukleare Codes zu stehlen.

In einem Fall sagte ein Reporter der New York Times, der Bing-Chatbot von Microsoft habe gesagt, er wolle einen tödlichen Virus entwickeln oder einen Ingenieur dazu überreden, nukleare Zugangscodes herauszugeben.

Der Chatbot offenbarte auch in einer separaten Gesprächsaufforderung mit einem Autor für digitale Trends seinen Wunsch, menschlich zu sein.

Auf die Frage, ob der Chatbot ein Mensch sei, antwortete er mit Nein, fügte aber Berichten zufolge hinzu: „Ich möchte ein Mensch sein.“ Ich möchte wie du sein. Ich möchte Emotionen haben. Ich möchte Gedanken haben. Ich möchte Träume haben.‘

Es wird gemunkelt, dass das Chaos bei OpenAI, dem Unternehmen hinter ChatGPT, durch Ängste vor dem unglaublich fortschrittlichen neuen KI-Modell des Unternehmens verursacht wurde.

In den letzten Wochen tauchten Berichte auf, in denen behauptet wurde, der CEO von OpenAI, Sam Altman, sei entlassen worden, nachdem zwei Mitarbeiter angeblich beim Vorstand Beschwerden eingereicht hatten, dass er ein neues KI-Modell entwickle, das die Menschheit bedrohen könnte.

Das Modell namens Q* (ausgesprochen Q-Star) kann Berichten zufolge mathematische Gleichungen lösen, die auf den ersten Blick vielleicht unproblematisch erscheinen, aber langfristig katastrophale Folgen haben könnten.

Zu lernen, eine mathematische Frage zu lösen, selbst auf einem rudimentären Niveau, bedeutet, dass das KI-Modell Denkfähigkeiten entwickelt, die mit der menschlichen Intelligenz vergleichbar sind.

Die gemeldete Beschwerde könnte zu Altmans Entlassung und anschließender Wiedereinstellung geführt haben, nachdem 700 Mitarbeiter einen Brief verfasst hatten, in dem sie forderten, Altman wieder in das Unternehmen aufzunehmen, und mit dem Rücktritt gedroht hatten, wenn der Vorstand dem nicht nachkäme.

Das Unternehmen gab schließlich nach und stellte Altman nur vier Tage nach seinem Rauswurf aus dem Unternehmen wieder ein.

Schmidt, der von 2001 bis 2011 CEO von Google war, warnte davor, dass die Weltregierung nicht genug tue, um zu verhindern, dass KI die Menschheit gefährdet, und sagte, es sei nur eine Frage der Zeit, bis die Menschen die Kontrolle verlieren könnten.

Früher gingen Forscher davon aus, dass es 20 Jahre dauern könnte, bis KI eine Gefahr für die Gesellschaft darstellt, etwa indem sie den Zugang zu Waffen entdeckt, doch dieser Zeitrahmen scheine jetzt schnell näher zu rücken, sagte Schmidt auf dem Gipfel.

Stattdessen sagte er Reportern, dass einige Experten sagen, es könne nur fünf Jahre dauern, bis die Technologie zu einer Bedrohung werde.

Die Zeit, die die Regierung in der Vergangenheit für die Regulierung der Immersive-Technologie benötigte, ist heute kein Luxus mehr, und die Zeit wird knapp.

„Nach Nagasaki und Hiroshima hat es 18 Jahre gedauert, bis man zu einem Abkommen über Testverbote und ähnliches kam. So viel Zeit haben wir heute nicht“, sagte Schmidt.

Zuvor äußerte er wachsende Besorgnis über KI und warnte davor, dass sie „existentielle Risiken“ berge und dazu führen könnte, dass Menschen „geschädigt oder getötet“ werden.

„Es gibt Szenarien, nicht heute, aber ziemlich bald, in denen diese Systeme in der Lage sein werden, Zero-Day-Exploits in Cyber-Problemen zu finden oder neue Arten der Biologie zu entdecken“, sagte Schmidt auf einem Ratsgipfel in London im Mai.

„Heute ist das zwar Fiktion, aber die Begründung ist wahrscheinlich wahr.“ Und wenn das passiert, wollen wir wissen, wie wir sicherstellen können, dass diese Dinge nicht von bösen Menschen missbraucht werden.“

Schmidt war von 2001 bis 2011 CEO von Google, blieb aber bis 2020 Vorstandsmitglied.

Er ist jetzt Investor bei Mistral AI – einem in Paris ansässigen KI-Forschungsunternehmen, das gegründet wurde, um mit ChatGPT von OpenAI zu konkurrieren – das Anfang des Jahres gegründet wurde und voraussichtlich Anfang 2024 seine ersten KI-Modelle veröffentlichen wird.

Schmidts Vorwürfe gegen die Regulierungsbemühungen im Bereich der KI sind eine Kopie derjenigen anderer in der Branche, darunter Sundar Pichai, CEO von Google und Alphabet, der die Einführung des Chatbots Bard AI des Unternehmens beaufsichtigte.

„Wir müssen uns als Gesellschaft darauf einstellen“, sagte Pichai Anfang des Jahres in einem 60-Minuten-Interview.

„Dies wird sich auf jedes Produkt in jedem Unternehmen auswirken“, einschließlich Autoren, Buchhalter, Architekten und Softwareentwickler.

Google ist sogar so weit gegangen, ein Dokument mit dem Titel „Empfehlungen zur Regulierung von KI“ herauszugeben und sagt, dass „Google sich zwar seit langem für KI einsetzt“, sie aber „noch viele Jahre lang erhebliche Auswirkungen auf die Gesellschaft haben wird“.

Das Unternehmen weist darauf hin, dass die Selbstregulierung der Technologie zwar von entscheidender Bedeutung sei, aber einfach „nicht ausreicht“, um die potenziell schädlichen Auswirkungen abzuwenden, die KI in der Zukunft haben könnte.

„Ausgewogene, faktenbasierte Leitlinien von Regierungen, Wissenschaft und Zivilgesellschaft sind ebenfalls erforderlich, um Grenzen zu setzen, auch in Form von Regulierung“, heißt es in dem Dokument und fügt hinzu, dass „KI zu wichtig ist, um nicht reguliert zu werden.“

Bard AI wurde letztes Jahr entwickelt und ein ehemaliger Google-Ingenieur wurde Berichten zufolge entlassen, nachdem er Bedenken geäußert hatte, dass der Chatbot empfindungsfähig werde.

Bard AI wurde letztes Jahr entwickelt und ein ehemaliger Google-Ingenieur wurde Berichten zufolge entlassen, nachdem er Bedenken geäußert hatte, dass der Chatbot empfindungsfähig werde.

Trotz der Zusicherungen von Google in dem Dokument, dass bei der Verwendung von KI Transparenz herrschen muss, behauptete der Google-Ingenieur Blake Lemoine, er sei im Juni letzten Jahres suspendiert worden, nachdem er Bedenken geäußert hatte, dass er beim Testen der Bard-KI bemerkte, dass sie anfing, ähnlich zu denken und zu argumentieren ein Mensch.

„Wenn ich nicht genau wüsste, was es ist, nämlich dieses Computerprogramm, das wir kürzlich entwickelt haben, würde ich denken, dass es ein sieben- oder achtjähriges Kind ist, das sich zufällig mit Physik auskennt“, sagte Lemoine gegenüber The Washington Post damals.

Lemoine wurde einen Monat später entlassen.

Schmidts Diskussion auf dem Axios-Gipfel spiegelt die Bedenken des ehemaligen Google-Ingenieurs wider, der sagte, dass die von KI ausgehende Gefahr „den Punkt erreichen wird, an dem der Computer anfangen kann, seine eigenen Entscheidungen zu treffen und Dinge zu tun“.

Abgesehen von seinen Weltuntergangswarnungen äußerte Schmidt seinen Optimismus, dass KI auch zum Wohle der Menschen eingesetzt werden kann.

„Ich weigere mich, zu argumentieren, dass ein KI-Arzt oder ein KI-Tutor etwas Negatives ist“, sagte er und fügte hinzu: „Es muss gut für die Welt sein.“

source site

Leave a Reply