Reduced order modeling of thermal convection flows: a reservoir computing approach

In dieser Arbeit wird das Potenzial von Machine-Learning-Algorithmen (ML) zur Verbesserung der Parametrisierung von großskaligen atmosphärischen Simulationen untersucht. Herkömmliche Ansätze verwenden oft Vereinfachungen oder rechenintensive Methoden. Diese Arbeit beabsichtigt, einen physikalisch konsistenten und rechnerisch effizienten Ansatz einzuführen, der Reservoir Computing (RC) und Datenkompression nutzt, um subgitter-skalige Merkmale aus direkten numerischen Simulationen (DNS) der thermischen Konvektion zu extrahieren. Hierbei wird der hochaufgelöste Simulationsdatensatz zuerst durch Proper Orthogonal Decomposition (POD) oder ein Autoencoder-Netzwerk (AE) vorverarbeitet, um die Datenmenge zu reduzieren. Anschließend wird ein RC-Modell auf diesem reduzierten Datenraum trainiert, um zukünftige Strömungszustände ohne die Lösung der nichtlinearen Bewegungsgleichungen vorherzusagen. Die Vorhersagen des kombinierten POD-RC-Modells werden anhand der Originalsimulationen validiert. Das Modell reproduziert die strukturellen und statistischen Merkmale von trockenen und feuchten Konvektionsströmungen und eröffnet somit neue Wege für die dynamische Parametrisierung des subgrid-skaligen Transports in grob aufgelösten Zirkulationsmodellen. Des Weiteren untersucht die Studie die Verallgemeinerungseigenschaften eines AE-RC-Modells basierend auf einem wärmeflussgetriebenen zweidimensionalen turbulenten Konvektionssystem. Dabei zeigt sich, dass das AE-RC-Modell die räumliche Struktur und statistischen Eigenschaften der ungesehenen physikalischen Felder korrekt wiedergibt. Schließlich liegt der Fokus auf der Parametrisierung der konvektiven Grenzschicht (CBL) mithilfe eines Generative Adversarial Networks (GAN), das auf hochaufgelösten DNS-Daten einer dreidimensionalen CBL trainiert wird. Es wird gezeigt, dass die Methode durch eine physikalisch informierte Reskalierung der begrenzten Trainingsdaten in der Lage ist, das CBL-Wachstum und die damit verbundene Musterbildung zu reproduzieren. Die GAN-Ergebnisse stimmen mit Standard Mass-Flux Parametrisierungen überein und liefern zusätzlich die horizontale Anordnung der turbulenten Strömung, die mit dem Mass-Flux-Ansatz nicht erreicht werden kann. Obwohl die Implementierung von ML-basierten Parametrisierungsschemata in großskaligen Modellen nicht im Fokus steht, trägt diese Arbeit dazu bei, unser Verständnis des Potenzials und der Grenzen dieser Modelle im Kontext der Klimamodellierung und numerischen Wettervorhersage zu vertiefen.

This thesis explores the potential of machine learning (ML) algorithms to enhance subgrid-scale parameterizations in large-scale atmospheric simulations. Traditional approaches often rely on simplifications or computationally expensive methods. This work aims to introduce a more physically consistent and computationally efficient approach using Reservoir Computing (RC) and data reduction techniques to extract subgrid-scale features from direct numerical simulations (DNS) of thermal convection. To this end, the high-fidelity simulation data is pre-processed by a Proper Orthogonal Decomposition (POD) or an Autoencoder (AE) network to reduce the amount of data. An RC model is subsequently trained on this reduced data space to predict future flow states without solving the governing nonlinear equations of motion. The combined POD-RC model’s predictions are thoroughly validated by original simulations. It is found that the model accurately replicates spatial organization, structural features, and low-order statistics of dry and moist convection flows, opening new ways for the dynamic parameterization of subgrid-scale transport in larger-scale circulation models. Furthermore, this work investigates the generalization property of an AE-RC model based on a flux-driven two-dimensional turbulent convection system. It is found that the machine learning model can correctly reproduce spatial features and the statistical properties of the physical fields. Finally, this work focuses on the parameterization of the convective boundary layer (CBL) by means of a Generative Adversarial Network (GAN), which is trained on high-fidelity DNS data of a three-dimensional CBL. It is shown that a physics-informed rescaling of the limited amount of training data enables the method to reproduce the CBL growth and the related pattern formation. The GAN results agree with standard mass-flux schemes and additionally provide the granule-type horizontal organization of the turbulent flow, which cannot be obtained with the mass-flux approach. Although the primary focus is not on implementing ML-based parameterization schemes in large-scale models, this work advances our understanding of the potential and limitations of the aforementioned models in the context of climate modeling and numerical weather prediction.

Zitieren

Zitierform:
Zitierform konnte nicht geladen werden.

Rechte

Nutzung und Vervielfältigung: