Der Sturz des Tech-CEO unterstreicht die Notwendigkeit einer besseren Regulierung: Experten

Der überraschende Sturz von OpenAI-CEO Sam Altman hat die Besorgnis über den Stand der Regulierung der künstlichen Intelligenz erneut geweckt, da die Branche weiterhin rasant wächst.

„Jetzt ist der perfekte Zeitpunkt, Leitplanken für den gesunden Menschenverstand zu schaffen“, sagte Christopher Alexander, Chief Analytics Officer der Pioneer Development Group, gegenüber Fox News Digital.

Alexanders Kommentare kamen, nachdem der Vorstand von OpenAI letzte Woche den Schritt unternommen hatte, Altman zu verdrängen, mit der Begründung, dass der Firmengründer nicht gut mit dem Vorstand kommuniziert habe und dass er das Vertrauen der Vorstandsmitglieder verloren habe.

„Herr Altmans Abgang folgt einem beratenden Überprüfungsprozess durch den Vorstand, der zu dem Schluss kam, dass er in seiner Kommunikation mit dem Vorstand nicht durchweg aufrichtig war, was ihn daran hinderte, seine Verantwortung wahrzunehmen“, sagte das Unternehmen in einer Pressemitteilung.

Berichten zufolge plant SAM ALTMAN nach dem Sturz von Openai ein neues KI-Unternehmen

Sam Altman, CEO und Mitbegründer von OpenAI, spricht während einer Anhörung des Justizunterausschusses des Senats am Dienstag, den 16. Mai 2023 in Washington, DC. (Getty)

Der Schritt erfolgt zu einem Zeitpunkt, an dem die wachsende KI-Branche mehr Aufmerksamkeit von Regierungen auf der ganzen Welt auf sich zieht. Präsident Biden hat kürzlich eine Durchführungsverordnung unterzeichnet, die den ersten Schritt zur Regulierung der Branche darstellen soll. Es ist jedoch fraglich, wie weit diese Anordnung gehen kann, während der Kongress nur wenige Schritte unternommen hat, um eine KI-Verordnung gesetzlich zu kodifizieren.

Dieser Mangel an Regulierung hat zu wachsender Besorgnis geführt, da eines der führenden KI-Unternehmen des Landes, das hinter der beliebten ChatGPT-Plattform steht, eine neue Führung übernimmt. Steve Petersen, Philosophieprofessor an der Niagara University, schrieb Anfang dieser Woche für die New York Post und argumentierte, der Schritt zeige, dass KI-Unternehmen „nicht mehr darauf vertraut werden kann, dass sie sich selbst kontrollieren; es ist höchste Zeit, den langen Arm des Gesetzes einzusetzen.“

„Es wird als Intelligenz auf menschlichem Niveau oder besser bei allen kognitiven Aufgaben definiert – und wenn wir es einmal verstanden haben, wird es wahrscheinlich schnell weit über unser Intelligenzniveau hinausgehen“, argumentierte Petersen. „Wenn wir etwas falsch machen, sind sich viele nüchterne Denker einig, dass es eine existenzielle Katastrophe für die Menschheit sein könnte.“

Alexander stimmte zu, dass das Risiko, das KI möglicherweise darstellen könnte, eine Regulierung erforderlich macht, warnte jedoch davor, dass die aktuelle Technologie nicht auf dem Niveau sei, das viele befürchten, aber eines Tages erreichen könnte.

ChatGPT-Bildschirm auf dem Laptop neben dem Fenster

ChatGPT auf einem Laptop. (Cyberguy)

OPENAI-MITBEGRÜNDER GREG BROCKMAN „SCHOCKIERT UND TRAURIG“ ÜBER DEN ABTRITT VON CEO SAM ALTMAN

Alexander verwies auf den anfänglichen Boom der sozialen Medien als ein Beispiel für verpasste Chancen und argumentierte, dass politische Entscheidungsträger in Bezug auf KI nicht dieselben Fehler machen sollten.

Einige haben jedoch die Frage gestellt, ob Altmans überraschender Abgang die Notwendigkeit einer stärkeren Regulierung unterstreicht, wobei Phil Siegel, Gründer des Center for Advanced Preparedness and Threat Response Simulation, darauf hinwies, dass OpenAI bereits regulatorische Hürden genommen hat.

„Das Fehlen eines Prozesses zur Untersuchung und Umsetzung von Richtlinien ist alarmierend für ein Unternehmen, das derzeit einen solchen Einfluss auf unser Technologie-Ökosystem hat“, sagte Siegel gegenüber Fox News Digital. „Ich hoffe, dass die Investoren ein Zeichen setzen und einen größeren, professionelleren und verantwortungsvolleren Vorstand fordern, vielleicht mit nur einem Gründer, einem oder zwei Aktivisten und mehreren erfahrenen Direktoren. Ich bin mir nicht sicher, ob man das regulieren kann – sie hätten zugestimmt.“ die meisten regulatorischen Hürden, die man sich vorstellen kann.“

Das OpenAI-Logo auf dem Smartphone-Bildschirm

In dieser Abbildung ist das OpenAI ChatGPT-Logo auf einem Mobiltelefon zu sehen. (Jaap Arriens/NurPhoto über Getty Images)

KLICKEN SIE HIER FÜR WEITERE US-NEWS

Unterdessen befürchten andere Experten, dass eine Überregulierung die Innovation der KI-Technologie in den USA dämpfen könnte.

„Führungskämpfe, wie wir sie gerade bei OpenAI gesehen haben, sind nichts Neues. Die Geschäftswelt erlebt sie regelmäßig“, sagte Samuel Mangold-Lenett, Redakteur bei The Federalist, gegenüber Fox News Digital.

„Der größte Teil unseres Wissens über AGI bleibt theoretisch, und es ist wahrscheinlich, dass Vorschriften in diesem Bereich die Entwicklung hemmen und den Fortschritt verlangsamen, während unsere Gegner – nämlich China – weiter voranschreiten. Wir müssen vorsichtig sein und sicherstellen, dass diese Technologie nicht gefährlich wird.“ „Eine Bedrohung für die Menschheit und dass man den Menschen, die daran arbeiten, vertrauen kann, dass sie daran arbeiten, aber ähnlich wie beim Manhattan-Projekt ist es unmöglich, die perfekte Balance zwischen Bedingungen und Persönlichkeiten zu finden.“

KLICKEN SIE, UM DIE FOX NEWS-APP ZU ERHALTEN

Jon Schweppe, der politische Direktor des American Principles Project, argumentierte jedoch, dass die Tortur ein Beispiel dafür sei, warum eine Regulierung notwendig sei.

„Stellen Sie sich vor, wir würden unser Atomwaffenarsenal in den Händen einiger hochideologischer Technologiebrüder lassen“, sagte Schweppe gegenüber Fox News Digital. „Das ist im Wesentlichen das, was derzeit mit der KI passiert.“ KI ist eine technologische Massenvernichtungswaffe – sie stellt eine existenzielle Bedrohung für die Menschheit, wie wir sie kennen, dar. Offensichtlich ist ein gewisses Maß an Kontrolle erforderlich, bevor es zu spät ist.“

source site

Leave a Reply