Der große Filter: Warum Menschen in ihren letzten Jahrhunderten sein könnten | Seltsam | Nachricht

Das Fermi-Paradoxon macht auf den Widerspruch zwischen der hohen Wahrscheinlichkeit der Existenz fortgeschrittener Zivilisationen und dem Mangel an stichhaltigen Beweisen für ihre Existenz aufmerksam.

Es wurden zahlreiche Erklärungen vorgeschlagen, um dieses Paradoxon anzugehen, und eine davon ist das Konzept des „Großen Filters“.

Kurz gesagt bezieht sich der Große Filter auf ein theoretisches Ereignis oder Szenario, das den Fortschritt intelligenten Lebens auf dem Weg zu interplanetarem und interstellarem Leben behindert und letztendlich zu seiner Auslöschung führt.

Unser Planet und seine Vorgänger standen bereits vor verschiedenen Herausforderungen in Form von Massenaussterben.

Vor einer Viertelmilliarde Jahren beispielsweise ereignete sich das Große Aussterben, auch bekannt als Perm-Trias-Aussterben, bei dem die überwiegende Mehrheit der Meeres- und Landarten ausgelöscht wurde.

LESEN SIE MEHR: Leben auf dem Mond – Starbucks und Uber könnten für Mondbewohner Realität werden

Diese Aussterbeereignisse waren jedoch natürliche Ereignisse, die aus der Entwicklung unseres Planeten und unseres Sonnensystems resultierten. Vulkanausbrüche, Meteoriteneinschläge und Asteroideneinschläge sind nicht vom Menschen verursacht.

Jetzt ändern sich die Dinge jedoch – und zwar schnell.

Es scheint, dass die Menschheit vor einer großen Herausforderung steht, die wir selbst geschaffen haben: Atomwaffen und biomedizinische Fortschritte werfen bedrohliche Schatten.

Und natürlich kann man nicht über den Schattenwurf sprechen, ohne auch über künstliche Intelligenz (KI) zu diskutieren.

Laut einer kürzlich in Acta Astronautica veröffentlichten Studie sollte die Idee, dass sich KI zu einer künstlichen Superintelligenz (ASI) weiterentwickeln könnte, die als ein weiteres großartiges Filtermerkmal dienen könnte, sehr ernst genommen werden.

Der von Michael Garrett, einem Forscher am Institut für Physik und Astronomie der Universität Manchester (Großbritannien), verfasste Artikel untersucht die Möglichkeit, dass KI zu künstlicher Superintelligenz (ASI) wird.

Garrett betont, wie wichtig es ist, die KI wirksam zu regulieren, um zu verhindern, dass sie zu einer Bedrohung für unsere Zivilisation und andere technologische Zivilisationen wird.

Laut Garrett könnte das Konzept des Großen Filters technologische Zivilisationen wie unsere daran hindern, andere Planeten zu kolonisieren, wodurch sie (und wir) ohne einen Backup-Plan anfällig für Aussterben oder Stagnation werden.

Die Dringlichkeit, dieses Problem anzugehen, wird von Garrett unterstrichen, der argumentiert, dass die Weiterentwicklung der künstlichen Superintelligenz ein kritischer Wendepunkt für Gesellschaften sein könnte, der möglicherweise innerhalb von 200 Jahren zu ihrem Untergang führen könnte, wenn sie nicht ordnungsgemäß reguliert wird.

Garrett ist nicht der Erste, der über die Bedrohung durch einen Großen Filter spricht, und er wird sicherlich nicht der Letzte sein.

Im Jahr 2022 erläuterte eine Gruppe von Wissenschaftlern der NASA die vielen Gründe, warum der Filter „das Potenzial hat, das Leben, wie wir es kennen, auszurotten“. Sie warnten, dass „unser Fortschrittstempo“ offenbar „direkt mit der Schwere unseres Sturzes“ korreliert.

Mit anderen Worten: Die Menschen sollten sich auf einen Ikarus-ähnlichen Abstieg vorbereiten.

Interessanterweise stellten die Forscher fest, dass wir den „Großen Filter“ bereits überschritten haben. Andererseits, sagten sie, bestehe eine hohe Wahrscheinlichkeit, dass dies in unserer Zukunft bevorstehe.

Obwohl es möglich ist, dass viele Zivilisationen nicht über das Leben als Einzeller hinauskommen und wir dieses Hindernis bereits überwunden haben, ist es grundsätzlich auch möglich, dass wir am Rande der Selbstzerstörung stehen.

Und die selbstzerstörerischen Kräfte könnten zuschlagen, lange bevor wir die Fähigkeit haben, uns über die Erde hinauszuwagen.

Die zerstörerischen Kräfte könnten in einer Vielzahl ebenso unappetitlicher Ausprägungen auftreten, darunter Kriegsführung, Ressourcenverknappung, künstliche Pandemien und außer Kontrolle geratene KI.

In ihrer Veröffentlichung schlagen die Forscher vor, dass das Erreichen des Status einer interstellaren Spezies von unserer Fähigkeit abhängt, unsere aktuelle Situation und die existenziellen Risiken, denen wir ausgesetzt sind, anzuerkennen.

In Bezug auf künstliche Intelligenz betonten die Forscher wie Garrett, wie wichtig es ist, proaktive Maßnahmen zu ergreifen, um zu verhindern, dass sie zu unserem ultimativen Filter wird und zum Aussterben führt.

Sie warnten davor, dass es zu spät sein könnte, zu warten, bis die KI vollständig entwickelt ist, um ihre Absichten gegenüber der Menschheit auf der Grundlage empirischer Beweise zu beurteilen.

Stephen Hawking sagte bekanntlich, dass künstliche Intelligenz „entweder das Beste sein wird, was uns je passiert ist, oder es wird das Schlimmste sein.“

„Wenn wir nicht aufpassen“, fügte er hinzu, „kann es durchaus das Letzte sein.“

source site

Leave a Reply