Der Mitbegründer von OpenAI warnt davor, dass „superintelligente“ KI kontrolliert werden muss, um ein mögliches Aussterben der Menschheit zu verhindern

Ein Mitbegründer des Marktführers für künstliche Intelligenz OpenAI warnt davor, dass Superintelligenz kontrolliert werden muss, um das Aussterben der Menschheit zu verhindern.

„Superintelligenz wird die einflussreichste Technologie sein, die die Menschheit jemals erfunden hat, und könnte uns helfen, viele der wichtigsten Probleme der Welt zu lösen. Aber die enorme Macht der Superintelligenz könnte auch sehr gefährlich sein und zur Entmachtung der Menschheit oder sogar zur Ausrottung der Menschheit führen.“ „, schrieben Ilya Sutskever und der Leiter der Ausrichtung Jan Leike in einem Blogbeitrag am Dienstag und sagten, sie glauben, dass solche Fortschritte bereits in diesem Jahrzehnt eintreten könnten.

Sie sagten, dass die Bewältigung solcher Risiken neue Institutionen für die Governance und die Lösung des Problems der Ausrichtung der Superintelligenz erfordern würde: Sicherstellen, dass KI-Systeme, die viel intelligenter sind als Menschen, „den menschlichen Absichten folgen“.

„Derzeit haben wir keine Lösung, um eine potenziell superintelligente KI zu steuern oder zu kontrollieren und zu verhindern, dass sie abtrünnig wird. Unsere aktuellen Techniken zur Ausrichtung der KI, wie zum Beispiel verstärkendes Lernen aus menschlichem Feedback, basieren auf der Fähigkeit des Menschen, die KI zu überwachen.“ Aber Menschen werden nicht in der Lage sein, KI-Systeme, die viel intelligenter sind als wir, zuverlässig zu überwachen, und daher werden unsere derzeitigen Ausrichtungstechniken nicht zur Superintelligenz skalierbar sein“, schrieben sie. „Wir brauchen neue wissenschaftliche und technische Durchbrüche.“

Das FBI warnt davor, dass KI-DEEPFAKES zur Erstellung von „Sextortion“-Programmen eingesetzt werden

Auf diesem Illustrationsfoto, das am 18. Mai 2023 in Polen aufgenommen wurde, sind die OpenAI ChatGPT-App auf der App Store-Website, die auf einem Bildschirm angezeigt wird, und die OpenAI-Website, die auf einem Telefonbildschirm angezeigt wird, zu sehen. (Jakub Porzycki/NurPhoto)

Um diese Probleme innerhalb eines Zeitraums von vier Jahren zu lösen, sagten sie, dass sie ein neues Team leiten und 20 % der bisher gesicherten Rechenleistung dafür aufwenden würden.

„Obwohl dies ein unglaublich ehrgeiziges Ziel ist und wir keine Erfolgsgarantie haben, sind wir optimistisch, dass eine gezielte, konzertierte Anstrengung dieses Problem lösen kann“, sagten sie.

Biden-Administrator behauptet „irreparablen Schaden“ und versucht, sich weiterhin mit Big Tech zu treffen, nachdem das Urteil die Einstellung angeordnet hat

Ilja Suzkever

Ilya Sutskever, russisch-israelisch-kanadischer Informatiker und Mitbegründer und Chefwissenschaftler von OpenAI, spricht am 5. Juni 2023 an der Universität Tel Aviv in Tel Aviv. (JACK GUEZ/AFP über Getty Images)

Neben der Verbesserung aktueller OpenAI-Modelle wie ChatGPT und der Risikominimierung konzentriert sich das neue Team auf die Herausforderungen des maschinellen Lernens bei der Ausrichtung superintelligenter KI-Systeme auf menschliche Absichten.

Sein Ziel besteht darin, einen automatisierten Ausrichtungsforscher auf annähernd menschlicher Ebene zu entwickeln, der große Mengen an Rechenleistung nutzt, um ihn zu skalieren und „die Superintelligenz iterativ auszurichten“.

KLICKEN SIE HIER, UM DIE FOX NEWS-APP ZU ERHALTEN

ChatGPT auf einem Laptop

18. April 2023, Berlin, Deutschland: Die Website der Firma OpenAI ist auf einem Laptop geöffnet. (Hannes P. Albert/Picture Alliance über Getty Images)

Zu diesem Zweck wird OpenAI eine skalierbare Trainingsmethode entwickeln, das resultierende Modell validieren und anschließend seine Ausrichtungspipeline einem Stresstest unterziehen.

Die Bemühungen des Unternehmens werden von Microsoft unterstützt.

Reuters hat zu diesem Bericht beigetragen.

source site

Leave a Reply