Sam Altman, CEO von OpenAI, spricht über Ethik und das globale Ausmaß der Veränderungen, die KI mit sich bringt

Sam Altman von OpenAI nahm an einem Interview teil und teilte mit, was als nächstes für ChatGPT und AGI ansteht und wie er über die gewaltigen Veränderungen spricht, die KI auf globaler Ebene mit sich bringen wird.

OpenAI hat einen Fahrplan für die Zukunft der KI

Zu Beginn des Interviews wurde Altman gefragt, wie die Zukunft von OpenAI sei.

Er antwortete, dass sie für die nächsten Jahre einen klaren Fahrplan für die nächsten zu entwickelnden Modelle hätten.

Er räumte aber auch ein, dass die Wissenschaft in zwei Jahren große Fortschritte gemacht haben werde.

Altman kommentierte:

„Wir wissen irgendwie, wohin diese Modelle gehen werden. Wir haben eine Roadmap.

Wir sind sehr gespannt auf … wir können uns sowohl die Wissenschaft und Technologie als auch das Produkt in ein paar Jahren vorstellen.

Und darüber hinaus werden wir, wissen Sie, noch viel lernen, wir werden in zwei Jahren viel schlauer sein als heute.“

Die Herausforderung besteht darin, sicherzustellen, dass KI der Menschheit zugute kommt

Die nächste interessante Frage stellte Altman, was die größte Herausforderung sei, um sicherzustellen, dass künstliche Intelligenz der Menschheit zugute kommt.

Altman brachte zum Ausdruck, dass er hinsichtlich der Lösung der KI-Ausrichtung „einigermaßen optimistisch“ sei.

Alignment ist das wissenschaftliche Gebiet, in dem es darum geht, sicherzustellen, dass die KI das tut, was sie tun soll, und nicht mit unbeabsichtigten Folgen aus der Bahn gerät.

Sam Altman antwortete:

„Ich bin einigermaßen optimistisch, was die Lösung des technischen Ausrichtungsproblems angeht. Wir haben noch viel Arbeit vor uns, aber wissen Sie, ich fühle mich mit der Zeit immer besser, nicht immer schlechter.“

Wessen Werte und Moral definieren die Ethik der KI?

Altman diskutierte weiterhin über die Sicherheit von KI aus ethischer Sicht und fragte, wessen Ethik und Werte der Leitfaden dafür sein werden, was KI-Sicherheit ist.

Es ist ein heikles Thema, denn Ethik und Werte sind subjektiv und unterscheiden sich nicht nur von Land zu Land, sondern auch von Person zu Person.

Er dachte über dieses Thema nach:

„…wie entscheiden wir, an wessen Werten wir uns orientieren, wer die Regeln dafür festlegen darf…“

Was die Art und Weise angeht, wie sie diese Systeme nutzen werden, wird es für die Gesellschaft, gelinde gesagt, schwierig sein, sich darauf zu einigen.“

Altman weitete seine Gedanken auf die globale Ebene aus und reflektierte, wie unklar es sei, wie „Global Governance“ aussehen werde.

„…wir müssen entscheiden, wie…die globale Steuerung dieser Systeme aussehen soll, wenn sie immer mächtiger werden, und jeder muss dabei eine Rolle spielen.“

Was tun gegen durch KI vertriebene Arbeitnehmer?

Das Gespräch wandte sich dann der nahen Zukunft zu und bezog sich auf die Frage, was mit Arbeitnehmern zu tun ist, denen aufgrund von KI Arbeitsplätze verloren gehen.

Derzeit wird über das Konzept des universellen Grundeinkommens (UBI) diskutiert, um den Tausenden von Arbeitnehmern zu helfen, die möglicherweise durch KI vertrieben werden.

Es wächst die Sorge, dass derzeit nichts unternommen wird, um Maßnahmen zur Unterstützung von Arbeitnehmern zu entwickeln, die keinen Arbeitsplatz mehr haben.

Ein Artikel in The Atlantic schlägt vor, dass das universelle Grundeinkommen eine Lösung ist:

„Das Problem mit KI ist nicht die Technologie. Das Problem sind nicht einmal die möglichen Auswirkungen der Technologie auf den Arbeitsmarkt.

Das Problem besteht darin, dass wir keine Richtlinien haben, um Arbeitnehmer für den Fall zu unterstützen, dass KI zu massiven Arbeitsplatzverlusten führt.

… Begrüßen Sie das universelle Grundeinkommen, eine 500 Jahre alte politische Idee, deren Zeit vielleicht endlich gekommen ist.“

Sam Altman sagte:

„Es gibt viele Leute, die sich für Dinge wie UBI begeistern (und ich bin einer von ihnen), aber ich habe keine Ahnung, dass UBI eine Komplettlösung oder auch nur der wichtigste Teil der Lösung ist.“

Die Leute wollen nicht nur Geld von einer AGI.

Sie wollen mehr Entscheidungsfreiheit, sie wollen Architekten der Zukunft sein, sie wollen mehr tun als bisher.

Und herauszufinden, wie das geht und gleichzeitig all diese, nennen wir sie disruptiven Herausforderungen anzugehen, wird meiner Meinung nach sehr wichtig, aber sehr schwierig sein.“

Sam Altman: Wie viele Jahre bis zur künstlichen allgemeinen Intelligenz

Altman wurde später gefragt, wie viele Jahre es dauern wird, bis Künstliche Allgemeine Intelligenz (AGI) entwickelt ist

AGI beschreibt das Konzept einer KI, die ähnlich wie Menschen denkt und lernt.

Es muss nicht geschult werden, um bestimmte Probleme zu lösen, sondern kann sich wie ein Mensch auf sein bereits vorhandenes Wissen stützen, um Lösungen zu finden.

AGI ist im Grunde die leistungsstarke KI, die viele in Science-Fiction-Romanen und -Filmen im Sinn hatten und in der eine künstliche Intelligenz die Möglichkeit hatte, selbstständig zu lernen.

Altman sagte, dass es immer noch Meinungsverschiedenheiten über eine Definition von AGI gebe, dass wir jedoch näherkommen.

Er sagte, dass OpenAI eine eigene Definition habe und dass er seine persönliche Definition habe, die besagt, dass AGI eine Intelligenz sei, die wissenschaftliche Entdeckungen machen könne, die Wissenschaftler allein nie hätten erreichen können.

Altman sagte auch, dass er nicht in der Lage sei, eine bestimmte Anzahl von Jahren anzugeben, in denen AGI verfügbar sein wird.

Während Sam Altman es ablehnte, zu raten, wie viele Jahre es bis zur Einführung von AGI dauern wird, sagte er, dass „leistungsstarke“ Systeme der künstlichen Intelligenz auf den Markt kommen, die die Funktionsweise der Welt verändern werden.

Altman kommentierte:

„…Ich würde sagen, dass ich davon ausgehe, dass wir bis zum Ende dieses Jahrzehnts über äußerst leistungsstarke Systeme verfügen werden, die die Art und Weise verändern, wie wir derzeit über die Welt denken.“

KI verfügbar machen

Altman brachte später zum Ausdruck, wie wichtig es sei, GPT-4 allgemein verfügbar zu machen, was er als „globale Demokratisierung“ bezeichnete.

Er sagte, es sei wichtig, es weltweit allgemein verfügbar zu machen, auch wenn es am Ende auf eine Weise verwendet werde, mit der er persönlich nicht einverstanden sei.

Das geht auf seine Ambivalenz bei der Definition zurück, wessen Moral und Ethik die Grenzen der künstlichen Intelligenz im Hinblick auf die Sicherheit festlegen werden.

Sam Altman:

„Eines der Dinge, die wir für wichtig halten, ist, dass wir GPT-4 extrem weithin verfügbar machen.

Auch wenn das bedeutet, dass die Leute es für Dinge verwenden, von denen wir vielleicht nicht immer glauben, dass sie die besten Dinge sind, die man damit machen kann.“

Weitreichendes Interview mit Sam Altman

Es gibt schwierige Fragen zur Zukunft der KI zu beantworten. Sam Altman, CEO von OpenAI, äußert seine Meinung zu den Problemen und Lösungen und räumt ein, dass nicht alles geklärt oder leicht zu beantworten ist. Das Interview bietet eine Vorstellung davon, welche erstaunlichen Auswirkungen KI auf die Menschen weltweit haben wird und was Altman unternimmt, um dem Ganzen einen Sinn zu geben.

Sehen Sie sich das Interview an, es enthält noch so viel mehr, das verrät, wer Sam Altman ist und wie die Zukunft der KI aussehen wird.

Ausgewähltes Bild von Shutterstock/yanishevska

source site

Leave a Reply