Ein Mitbegründer des Marktführers für künstliche Intelligenz OpenAI warnt davor, dass Superintelligenz kontrolliert werden muss, um das Aussterben der Menschheit zu verhindern.
„Superintelligenz wird die einflussreichste Technologie sein, die die Menschheit jemals erfunden hat, und könnte uns helfen, viele der wichtigsten Probleme der Welt zu lösen. Aber die enorme Macht der Superintelligenz könnte auch sehr gefährlich sein und zur Entmachtung der Menschheit oder sogar zur Ausrottung der Menschheit führen.“ „, schrieben Ilya Sutskever und der Leiter der Ausrichtung Jan Leike in einem Blogbeitrag am Dienstag und sagten, sie glauben, dass solche Fortschritte bereits in diesem Jahrzehnt eintreten könnten.
Sie sagten, dass die Bewältigung solcher Risiken neue Institutionen für die Governance und die Lösung des Problems der Ausrichtung der Superintelligenz erfordern würde: Sicherstellen, dass KI-Systeme, die viel intelligenter sind als Menschen, „den menschlichen Absichten folgen“.
„Derzeit haben wir keine Lösung, um eine potenziell superintelligente KI zu steuern oder zu kontrollieren und zu verhindern, dass sie abtrünnig wird. Unsere aktuellen Techniken zur Ausrichtung der KI, wie zum Beispiel verstärkendes Lernen aus menschlichem Feedback, basieren auf der Fähigkeit des Menschen, die KI zu überwachen.“ Aber Menschen werden nicht in der Lage sein, KI-Systeme, die viel intelligenter sind als wir, zuverlässig zu überwachen, und daher werden unsere derzeitigen Ausrichtungstechniken nicht zur Superintelligenz skalierbar sein“, schrieben sie. „Wir brauchen neue wissenschaftliche und technische Durchbrüche.“
Das FBI warnt davor, dass KI-DEEPFAKES zur Erstellung von „Sextortion“-Programmen eingesetzt werden
Um diese Probleme innerhalb eines Zeitraums von vier Jahren zu lösen, sagten sie, dass sie ein neues Team leiten und 20 % der bisher gesicherten Rechenleistung dafür aufwenden würden.
„Obwohl dies ein unglaublich ehrgeiziges Ziel ist und wir keine Erfolgsgarantie haben, sind wir optimistisch, dass eine gezielte, konzertierte Anstrengung dieses Problem lösen kann“, sagten sie.
Biden-Administrator behauptet „irreparablen Schaden“ und versucht, sich weiterhin mit Big Tech zu treffen, nachdem das Urteil die Einstellung angeordnet hat
Neben der Verbesserung aktueller OpenAI-Modelle wie ChatGPT und der Risikominimierung konzentriert sich das neue Team auf die Herausforderungen des maschinellen Lernens bei der Ausrichtung superintelligenter KI-Systeme auf menschliche Absichten.
Sein Ziel besteht darin, einen automatisierten Ausrichtungsforscher auf annähernd menschlicher Ebene zu entwickeln, der große Mengen an Rechenleistung nutzt, um ihn zu skalieren und „die Superintelligenz iterativ auszurichten“.
KLICKEN SIE HIER, UM DIE FOX NEWS-APP ZU ERHALTEN
Zu diesem Zweck wird OpenAI eine skalierbare Trainingsmethode entwickeln, das resultierende Modell validieren und anschließend seine Ausrichtungspipeline einem Stresstest unterziehen.
Die Bemühungen des Unternehmens werden von Microsoft unterstützt.
Reuters hat zu diesem Bericht beigetragen.