Wie viel von der Welt lässt sich modellieren?

Für einen Neurochirurgen ist es schwierig, sich im Gehirn zurechtzufinden. Eine zentrale Herausforderung ist die Klebrigkeit. Das Gehirn ist in Liquor cerebrospinalis eingetaucht; Wenn ein Chirurg den Schädel öffnet, wird der Druck abgelassen und Teile des Gehirns drängen nach oben zum Ausgang, während die Schwerkraft andere nach unten zieht. Dies kann mit besonderer Wucht geschehen, wenn der Schädel aufgrund eines Tumors überfüllt ist. Während einer typischen Neurochirurgie kann sich das Gehirn um bis zu einen Zentimeter verschieben, und Chirurgen, die ihre Routen präzise planen, können Schwierigkeiten haben, wenn sich das Gebiet bewegt.

In den 1990er Jahren beschlossen David Roberts, ein Neurochirurg, und Keith Paulsen, ein Ingenieur, dieses Problem anzugehen, indem sie ein mathematisches Modell eines sich bewegenden Gehirns erstellten. Echte Gehirne enthalten Milliarden von Ecken und Winkeln, aber ihr Modell müsste sie nicht enthalten; es könnte sich um eine in der Sprache der Infinitesimalrechnung kodierte Abstraktion handeln. Sie könnten das Gehirn als ein einfaches, schwammartiges Objekt modellieren, das in einen Flüssigkeitsstrom eingetaucht und in Kompartimente unterteilt ist. Gleichungen könnten vorhersagen, wie sich die Kompartimente bei jedem chirurgischen Eingriff bewegen würden. Das Modell könnte den Chirurgen sagen, dass sie den ersten Schnitt einen halben Zoll rechts von der Stelle machen sollen, an der sie beginnen wollten, und dann in einem Winkel von dreiundvierzig statt siebenundvierzig Grad nach innen fortfahren sollen.

Roberts und Paulsen entwarfen ihr Modell auf Tafeln am Dartmouth College. Ihr Design wurde 1998 erstmals klinisch getestet. Bei einem 35-jährigen Mann mit hartnäckiger Epilepsie musste ein kleiner Tumor entfernt werden. Er wurde betäubt, sein Schädel wurde aufgeschnitten und sein Gehirn begann sich zu bewegen. Das Modell stützte sich auf Daten aus einem präoperativen MRT-Scan und verfolgte die Bewegung bestimmter physischer Orientierungspunkte während der Operation. Auf diese Weise konnte die tatsächliche und die vorhergesagte Topographie des freigelegten Gehirns verglichen und die neue Position des Tumors vorhergesagt werden. „Die Übereinstimmung zwischen Vorhersage und Realität war erstaunlich“, erinnerte sich Roberts kürzlich.

Heute werden Abkömmlinge des Roberts- und Paulsen-Modells routinemäßig zur Planung neurochirurgischer Eingriffe eingesetzt. Das Modellieren im Allgemeinen ist mittlerweile Routine. Wir modellieren alles, von Wahlen bis zur Wirtschaft, vom Klima bis zum Coronavirus. Wie Modellautos, Modellflugzeuge und Modelleisenbahnen sind mathematische Modelle nicht real – sie sind vereinfachte Darstellungen, die die wesentlichen Teile richtig wiedergeben. Wie Models, Model-Bürger und Model-Kinder sind auch sie idealisierte Versionen der Realität. Aber Idealisierung und Abstraktion können Formen der Stärke sein. In einem alten mathematischen Modellierungswitz wird eine Gruppe von Experten beauftragt, die Milchproduktion auf einem Milchviehbetrieb zu verbessern. Einer von ihnen, ein Physiker, schlägt vor: „Stellen Sie sich eine kugelförmige Kuh vor.“ Kühe sind keine Kugeln, genauso wenig wie Gehirne wackelige Schwämme, aber der Sinn und Zweck der Modellierung – in gewisser Weise auch das Vergnügen daran – besteht darin, zu sehen, wie weit man kommen kann, wenn man zur Beschreibung von Unordnung nur allgemeine wissenschaftliche Prinzipien verwendet, die in Mathematik übersetzt werden Wirklichkeit.

Um erfolgreich zu sein, muss ein Modell das Bekannte replizieren und gleichzeitig auf das Unbekannte verallgemeinern. Das bedeutet, dass ein Modell mit zunehmender Bekanntheit verbessert werden muss, um relevant zu bleiben. Manchmal ermöglichen neue Entwicklungen in Mathematik oder Informatik den Fortschritt. In anderen Fällen müssen Modellierer die Realität aus einem neuen Blickwinkel betrachten. Jahrhundertelang führte eine Vorliebe für perfekte Kreise, gepaart mit ein wenig religiösem Dogma, zu Modellen, die die Bewegung von Sonne, Mond und Planeten in einem erdzentrierten Universum beschrieben; Diese Modelle funktionierten bis zu einem gewissen Grad, aber nie perfekt. Schließlich führten mehr Daten, kombiniert mit umfassenderem Denken, zu einem besseren Modell – einem heliozentrischen Sonnensystem, das auf elliptischen Umlaufbahnen basiert. Dieses Modell wiederum trug dazu bei, die Entwicklung der Infinitesimalrechnung voranzutreiben, das Gesetz der Gravitationsanziehung aufzudecken und unsere Karte des Sonnensystems zu vervollständigen. Neues Wissen treibt Modelle voran und bessere Modelle helfen uns beim Lernen.

Vorhersagen über das Universum sind wissenschaftlich interessant. Aber wenn Modelle Vorhersagen über weltliche Angelegenheiten machen, dann schenken die Menschen ihr wirkliche Aufmerksamkeit. Wir warten gespannt auf die Ergebnisse der Modelle des Weather Channel, der Fed und von fivethirtyeight.com. Modelle der Börse leiten die Anlage unserer Pensionsfonds; Modelle der Verbrauchernachfrage steuern Produktionspläne; Modelle der Energienutzung bestimmen, wann Strom erzeugt wird und wohin er fließt. Versicherer modellieren unser Schicksal und berechnen uns entsprechend. Werbetreibende (und Propagandisten) verlassen sich auf KI-Modelle, die gezielte Informationen (oder Desinformationen) basierend auf Vorhersagen unserer Reaktionen liefern.

Aber man lässt sich leicht mitreißen – man glaubt zu sehr an die Kraft und Eleganz des Modellierens. In den 1950er-Jahren veranlasste John von Neumann, ein bahnbrechender Mathematiker und Militärberater, den frühen Erfolg mit der kurzfristigen Wettermodellierung dazu, sich eine Zukunft vorzustellen, in der das Militär präzise „klimatologische Kriegsführung“ führen würde. Diese Idee mag damals mathematisch plausibel erschienen sein; Später zeigte die Entdeckung des „Schmetterlingseffekts“ – wenn ein Schmetterling in Tokio mit den Flügeln schlägt, ändert sich die Prognose in New York –, dass er nicht praktikabel ist. Im Jahr 2008 dachten Finanzanalysten, sie hätten den Immobilienmarkt modelliert; das hatten sie nicht. Modelle sind nicht immer gut genug. Manchmal ist das Phänomen, das Sie modellieren möchten, einfach nicht modellierbar. Alle mathematischen Modelle vernachlässigen Dinge; Die Frage ist, ob es wichtig ist, was vernachlässigt wird. Was macht den Unterschied? Wie werden Modelle eigentlich gebaut? Wie sehr sollten wir ihnen vertrauen und warum?

Die mathematische Modellierung begann mit der Natur: Ziel war es, die Gezeiten, das Wetter und die Positionen der Sterne vorherzusagen. Die Verwendung von Zahlen zur Beschreibung der Welt war eine alte Praxis, die bis in die Zeit zurückreicht, als Kratzer auf Papyrus für Weizengarben oder Rinderköpfe standen. Es war kein großer Sprung vom Zählen zu Koordinaten und zur Kodierung von Vorher und Nachher. Schon frühe Modellierer konnten sich darüber im Klaren sein, was der Physiker Eugene Wigner „die unangemessene Wirksamkeit der Mathematik“ nannte. Im Jahr 1963 erhielt Wigner den Nobelpreis für die Entwicklung eines mathematischen Rahmenwerks, das Vorhersagen über Quantenmechanik und Teilchenphysik ermöglichen konnte. Gleichungen funktionierten, selbst in einer subatomaren Welt, die jeder Intuition widersprach.

Naturmodelle sind in gewisser Weise rein. Sie basieren auf dem, was wir für unveränderliche physikalische Gesetze halten; Diese Gesetze harmonieren in Form von Gleichungen sowohl mit historischen Daten als auch mit aktuellen Beobachtungen und können daher für Vorhersagen verwendet werden. Dieser Ansatz ist von bewundernswerter Einfachheit. Die frühesten Klimamodelle beispielsweise waren im Wesentlichen Datenbücher, die durch Gleichungen geführt wurden, die auf grundlegender Physik, einschließlich Newtons Bewegungsgesetzen, basierten. Später, in den 1960er Jahren, beschrieben sogenannte Energiebilanzmodelle, wie Energie zwischen Sonne und Erde übertragen wurde: Die Sonne sendet Energie hierher, etwa siebzig Prozent davon werden absorbiert, der Rest wird zurückreflektiert. Selbst diese einfachen Modelle könnten die durchschnittliche Oberflächentemperatur gut vorhersagen.

Durchschnittswerte erzählen jedoch nur einen kleinen Teil der Geschichte. Der durchschnittliche Hauspreis in den Vereinigten Staaten liegt bei etwa fünfhunderttausend Dollar, in Mississippi liegt der Durchschnitt jedoch bei einhunderteinundsiebzigtausend Dollar und in den Hamptons bei mehr als drei Millionen Dollar. Der Standort ist wichtig. Bei der Klimamodellierung ist nicht nur der Abstand zur Sonne wichtig, sondern auch das, was sich auf dem Boden befindet – Eis, Wasser (salzig oder nicht), Vegetation, Wüste. Von der Erde absorbierte Energie erwärmt die Oberfläche und strahlt dann nach oben und außen, wo sie von Wolken abgefangen werden kann oder mit Chemikalien in verschiedenen Schichten der Atmosphäre interagiert, einschließlich der Treibhausgase Kohlendioxid, Methan und Lachgas. Es beginnen sich Wärmeunterschiede aufzubauen und es entwickeln sich Winde. Feuchtigkeit wird eingeschlossen und sammelt sich und bildet manchmal Regen, Schneeflocken oder Hagel. Währenddessen scheint die Sonne weiter – eine ständige Antriebsfunktion, die kontinuierlich Energie in das System pumpt.

Erdsystemmodelle (ESMs) sind der aktuelle Stand der Technik, wenn es darum geht, all diese Faktoren zu kombinieren. ESMs zielen auf eine hohe räumliche und zeitliche Spezifität ab und sagen nicht nur Temperaturtrends und Meeresspiegel voraus, sondern auch Veränderungen in der Größe der Gletscher am Nordpol und der Regenwälder in Brasilien. Bestimmte Regionen haben ihre eigenen Gleichungen, die sich mit Faktoren wie den chemischen Reaktionen befassen, die die Zusammensetzung des Ozeans und der Luft beeinflussen. Es gibt Tausende von Gleichungen in einem ESM, und sie beeinflussen sich gegenseitig in komplizierten Kopplungen über Hunderte, sogar Tausende von Jahren. Da die Gleichungen auf den Gesetzen der Physik basieren, sollten die Modelle theoretisch trotz ihrer Komplexität zuverlässig sein. Aber es ist schwer zu verhindern, dass sich kleine Fehler einschleichen und sich ausbreiten – das ist der Schmetterlingseffekt. Angewandte Mathematiker haben Jahrzehnte damit verbracht, herauszufinden, wie sich Schmetterlingseffekte quantifizieren und manchmal verbessern lassen; Die jüngsten Fortschritte in der Fernerkundung und Datenerfassung tragen nun dazu bei, die Genauigkeit der Modelle zu verbessern.

Woher wissen wir, dass ein Riesenmodell funktioniert? Seine Ergebnisse können mit historischen Daten verglichen werden. Der Sachstandsbericht 2022 des Zwischenstaatlichen Ausschusses für Klimaänderungen zeigt eine bemerkenswerte Übereinstimmung zwischen den Fakten und den Modellen, die zweitausend Jahre zurückreichen. Das IPCC verwendet Modelle, um zwei Welten zu vergleichen: eine Welt mit „natürlichen Treibern“, in der Treibhausgase und Feinstaub aus Quellen wie Vulkanen stammen, und eine „menschliche und natürliche“ Welt, die die von uns erzeugten Treibhausgase umfasst. Die Unterteilung hilft bei der Interpretierbarkeit. Eine der vielen auffälligen Abbildungen im IPCC-Bericht überlagert Diagramme des Anstiegs der globalen Durchschnittstemperatur im Laufe der Zeit, mit und ohne menschliche Treiber. Bis etwa 1940 tanzen die beiden Kurven um die Nullmarke und folgen dabei einander und auch der historischen Aufzeichnung. Dann beginnt das Modell mit menschlichen Fahrern einen stetigen Aufwärtstrend, der sich immer weiter an den historischen Rekord annähert. Das rein natürliche Modell geht ähnlich weiter wie zuvor – eine alternative Geschichte eines kühleren Planeten. Die Modelle mögen kompliziert sein, basieren aber auf soliden physikalischen Grundlagen. Sie arbeiten.

Natürlich gibt es viele Dinge, die wir modellieren wollen, die nicht ganz so physisch sind. Die Infektionskrankheitsmodelle, mit denen wir alle in den Jahren 2020 und 2021 vertraut wurden, nutzten die Physik, allerdings nur auf analoge Weise. Sie gehen auf Ronald Ross zurück, einen Arzt des frühen 20. Jahrhunderts. Ross entwickelte Gleichungen, die die Ausbreitung von Malaria modellieren könnten; In einer Arbeit aus dem Jahr 1915 schlug er vor, dass Epidemien möglicherweise durch dieselben „Prinzipien sorgfältiger Berechnungen verursacht werden, die zu so brillanten Ergebnissen in der Astronomie, Physik und Mechanik geführt haben“. Ross gab zu, dass seine ursprüngliche Idee, die er „Theorie des Geschehens“ nannte, mehr auf Intuition als auf der Realität beruhte, doch in einer späteren Reihe von Arbeiten zeigten er und Hilda Hudson, eine Mathematikerin, wie reale Daten von Epidemien harmonieren können mit ihren Gleichungen.

In den zwanziger und dreißiger Jahren gingen WO Kermack und AG McKendrick, Kollegen am Royal College of Physicians in Edinburgh, mit der Arbeit einen Schritt weiter. Sie ließen sich von der Chemie inspirieren und analysierten menschliche Interaktionen nach dem chemischen Massenwirkungsprinzip, das die Reaktionsgeschwindigkeit zwischen zwei Reagenzien mit ihrer relativen Dichte in der Mischung in Beziehung setzt. Sie tauschten Moleküle gegen Menschen aus und betrachteten eine geschlossene Population in einer Pandemie als eine Reaktion, die sich zwischen drei Gruppen abspielte: Anfällige („S“), Infizierte („I“) und Genesene („R“). In ihrem einfachen „SIR-Modell“ werden „S“ zu „I“ mit einer Geschwindigkeit, die proportional zur Wahrscheinlichkeit ihrer Interaktionen ist; „I“s werden schließlich zu „R“s mit einer Rate, die proportional zu ihrer aktuellen Bevölkerung ist; und „R“s, ob tot oder immun, werden nie wieder krank. Die wichtigste Frage ist, ob die „Ich“-Gruppe Mitglieder gewinnt oder verliert. Wenn es schneller gewinnt als es verliert, ist das schlecht – das passiert, wenn a COVID Welle beginnt.

Differentialgleichungen modellieren, wie sich Mengen im Laufe der Zeit ändern. Die aus einem SIR-Modell abgeleiteten Probleme sind einfach und relativ leicht zu lösen. (Sie sind ein Standardbeispiel in einem ersten Kurs über angewandte Mathematik.) Sie erzeugen Kurven, die das Wachstum und den Rückgang der verschiedenen Populationen darstellen und jedem, der sie miterlebt hat, sofort bekannt vorkommen COVID. Es gibt viele vereinfachende Annahmen – darunter konstante Populationen und gleichbleibende Gesundheitsreaktionen –, aber selbst in seiner einfachsten Form macht ein SIR-Modell vieles richtig. Daten aus realen Epidemien zeigen den charakteristischen „Buckel“, den das Grundmodell erzeugt – dieselbe Kurve, an deren „Abflachung“ wir alle gearbeitet haben COVID-19 erschien zum ersten Mal. Die geringe Anzahl von Annahmen und Parametern in einem SIR-Modell hat auch den Vorteil, dass sie politischen Entscheidungsträgern umsetzbare Ansätze vorschlagen. Im Modell ist offensichtlich, warum Isolation und Impfungen funktionieren werden.

source site

Leave a Reply