Fortschritte in der Turbulenzmodellierung mit maschinellem Lernen
Erforschen, wie maschinelles Lernen die Turbulenzmodellierung verbessert, um genauere Vorhersagen zu treffen.
― 7 min Lesedauer
Inhaltsverzeichnis
Turbulenz bezieht sich auf einen komplexen Zustand des Fluidflusses, der durch chaotische Veränderungen in Druck und Fliessgeschwindigkeit gekennzeichnet ist. Es ist ein natürliches Phänomen, das in verschiedenen Kontexten wie Wetter, Ozeanströmungen und sogar im Verhalten von Blut in unserem Körper zu beobachten ist. Turbulenz zu verstehen ist wichtig, um viele natürliche und technische Systeme genau vorhersagen und steuern zu können. Allerdings bringt das Studium turbulenter Strömungen erhebliche Herausforderungen mit sich.
Die grösste Herausforderung kommt von der komplexen Natur der Turbulenz, die viele Bewegungsgrössen umfasst, von sehr klein bis sehr gross. Die Anzahl der dynamischen Elemente, die berücksichtigt werden müssen, wächst schnell mit der Reynolds-Zahl, die ein Mass für die Trägheit des Flusses im Verhältnis zur Viskosität ist. Daher können traditionelle numerische Simulationen, die versuchen, all diese komplizierten Details zu erfassen, enorme Rechenressourcen erfordern.
Die Rolle von Subgrid-Scale-Modellierung
Um das Studium der Turbulenz machbarer zu machen, greifen Wissenschaftler und Ingenieure oft auf Subgrid-Scale (SGS) Modelle zurück. Diese Modelle konzentrieren sich darauf, nur die grösseren Skalen der Turbulenz zu simulieren und die Auswirkungen der kleineren, nicht aufgelösten Skalen zu approximieren. Das ermöglicht geringere Rechenkosten und erfasst trotzdem einige wesentliche Eigenschaften des turbulenten Flusses.
Es gibt verschiedene Ansätze zur Modellierung von SGS-Effekten, aber eine der frühesten und am weitesten verbreiteten Methoden ist das Smagorinsky-Modell. Dieser Ansatz führt eine effektive Viskosität ein, die auf den lokalen Strömungseigenschaften basiert und ermöglicht Berechnungen der Auswirkungen der kleinmassstäblichen Turbulenz auf grössere Skalen.
Fortschritte in numerischen Methoden
Neueste Fortschritte in der Computertechnik haben neue Methoden in der Fluiddynamik eröffnet. Unter diesen hat die Lattice Boltzmann Methode (LBM) an Popularität gewonnen, da sie einen einzigartigen Ansatz zur Simulation von Fluidströmungen bietet. Im Gegensatz zu traditionellen Methoden, die die Navier-Stokes-Gleichungen diskretisieren, arbeitet LBM auf mesoskopischer Ebene. Dadurch kann sie den Fluidfluss mit vereinfachten Partikelverteilungsfunktionen beschreiben, was die Komplexität verringert und gleichzeitig kritische Dynamiken beibehält.
In LBM wird das Fluid als Sammlung diskreter Partikel behandelt, die lokal interagieren. Das Verhalten dieser Partikel wird von einem grundlegenden Regelwerk gesteuert, das die Simulation verschiedener Strömungsszenarien ermöglicht. LBM kann komplexe Strömungen effektiv modellieren und ist somit ein wertvolles Werkzeug im Studium der Turbulenz.
Das Potenzial von Machine Learning
In den letzten Jahren hat sich Machine Learning als kraftvolles Werkzeug in vielen wissenschaftlichen Bereichen, einschliesslich der Turbulenzmodellierung, etabliert. Durch die Nutzung riesiger Datenmengen können Machine Learning-Algorithmen Muster erkennen und Vorhersagen über das Verhalten von Fluiden machen, die traditionelle Modelle möglicherweise übersehen.
Unter den verschiedenen Techniken des maschinellen Lernens bieten neuronale Netze einen einzigartigen Vorteil. Sie können komplexe Beziehungen aus grossen Datensätzen lernen, ohne die zugrunde liegenden Mechanismen explizit definieren zu müssen. Diese Fähigkeit macht sie besonders geeignet, um SGS-Modelle zu entwickeln, die sich basierend auf realen Turbulenzdaten anpassen können.
Methodik eines datengetriebenen Ansatzes
Um das SGS-Modell mit einem datengetriebenen Ansatz zu verbessern, können Forscher LBM mit Machine Learning-Techniken kombinieren. Diese Integration ermöglicht die Erstellung eines Modells, das die Feinheiten turbulenter Strömungen erfassen kann, während es die rechnerische Effizienz beibehält.
Der Prozess beginnt mit der Generierung eines Datensatzes durch vollständig aufgelöste Simulationen von Turbulenz, die oft als Direct Numerical Simulations (DNS) bezeichnet werden. Diese Simulationen liefern einen Referenzrahmen für die wichtigen Merkmale des turbulenten Verhaltens, einschliesslich wie Energie zwischen den Skalen transferiert wird.
Sobald ein umfassender Datensatz etabliert ist, kann ein neuronales Netz mit diesen Daten trainiert werden. Das Ziel ist, dass das neuronale Netz die Beziehung zwischen dem aufgelösten (grossskaligen) Fluss und den nicht aufgelösten (kleinmassstäblichen) Flusseigenschaften lernt. Das neuronale Netz kann effektiv ein Modell für die SGS-Terme generieren, das die Auswirkungen dieser kleineren Skalen berücksichtigt.
Training des neuronalen Netzwerks
Das Training des neuronalen Netzwerks umfasst mehrere Schritte. Zuerst benötigt das Netzwerk einen strukturierten Datensatz, der aus den DNS-Simulationen abgeleitet ist. Dieser Datensatz enthält verschiedene Instanzen von Vor- und Nachkollisionszuständen des Fluids, die wertvolle Informationen über die Fliessdynamik enthalten.
Um einen Trainingsdatensatz zu erstellen, wird die rohe DNS-Daten gefiltert, um grobkörnige Versionen zu produzieren, die es dem neuronalen Netz ermöglichen, sich auf grossskalige Merkmale zu konzentrieren, während es gleichzeitig wesentliche Momente aus den kleineren Skalen erfasst. Durch eine Reihe von Filtern und Transformationen können die Forscher einen grossen Datensatz erstellen, der als Grundlage für das Training dient.
Das neuronale Netzwerk wird dann trainiert, um die Unterschiede zwischen seinen Vorhersagen und den tatsächlichen DNS-Daten zu minimieren. Dieser Prozess umfasst mehrere Iterationen, in denen das Modell fortlaufend seine internen Parameter anpasst, um die Genauigkeit zu verbessern. Der Einsatz von Machine Learning-Techniken ermöglicht das Erkennen komplexer Beziehungen in den Daten, die traditionelle Modelle möglicherweise nicht effektiv erfassen.
Leistungsevaluation
Sobald das neuronale Netz trainiert ist, wird die Leistung des auf neuronalen Netzen basierenden SGS-Modells bewertet, indem seine Vorhersagen mit tatsächlichen DNS-Daten verglichen werden. Die Bewertung konzentriert sich auf mehrere wichtige Aspekte, einschliesslich der Eigenschaften des Energietransfers und der Darstellung verschiedener Turbulenzskalen.
Ein zentrales Bewertungskriterium ist das Energiespektrum, das beschreibt, wie die Energie im turbulenten Fluss auf verschiedene Skalen verteilt ist. Ein erfolgreiches SGS-Modell sollte dem Energiespektrum der DNS-Ergebnisse nahekommen, was zeigt, dass es die physikalischen Prozesse, die in turbulenten Strömungen auftreten, effektiv darstellen kann.
Darüber hinaus werden höhere statistische Momente, oft als Strukturfunktionen bezeichnet, untersucht. Diese Funktionen geben Einblicke in das Skalierungsverhalten verschiedener Turbulenzskalen. Das auf neuronalen Netzen basierende Modell wird erwartet, dass es die gleichen Skalierungseigenschaften wie die DNS-Daten erfasst, was seine potenzielle Effektivität zur Reproduktion realer Turbulenz anzeigt.
Vorteile gegenüber traditionellen Modellen
Die Einbindung von Machine Learning in die SGS-Modellierung bietet mehrere Vorteile gegenüber traditionellen Methoden. Ein grosser Vorteil ist die verbesserte Anpassungsfähigkeit. Während traditionelle Modelle wie das Smagorinsky-Modell auf festen Annahmen basieren, können Machine Learning-Modelle dynamisch basierend auf den Trainingsdaten, die sie erhalten, angepasst werden.
Zudem bietet der datengetriebene Ansatz ein klareres Verständnis der Flusseinheiten. Da das neuronale Netzwerk aus tatsächlichen Simulationsdaten lernt, kann es einzigartige und komplexe Merkmale erfassen, die in traditionellen Modellierungstechniken übersehen werden könnten.
Beispielsweise kann das neuronale Netzwerk möglicherweise Phänomene wie den Energieübergang von kleineren Skalen zu grösseren Skalen identifizieren und darstellen, was oft eine herausfordernde Aufgabe ist, die genau zu modellieren. Die Flexibilität und Kraft von Machine Learning bieten daher grosses Potenzial zur Weiterentwicklung des Bereichs der Turbulenzmodellierung.
Zukunftsausblicke
Während die ersten Ergebnisse vielversprechend sind, gibt es noch viel zu erkunden innerhalb dieses neuen Rahmens. Zukünftige Bestrebungen könnten darin bestehen, die Architektur des neuronalen Netzwerks für bessere Leistungen zu verfeinern oder den Trainingsdatensatz zu erweitern, um ein breiteres Spektrum an Turbulenzszenarien einzubeziehen.
Ein weiteres spannendes Gebiet ist die Integration des Modells mit verschiedenen Strömungsbedingungen, wie Strömungen, die von Grenzschichten betroffen sind, oder Strömungen, die Turbulenzanisotropie aufweisen. Die Fähigkeit, Machine Learning-Techniken in einem breiteren Kontext anzuwenden, kann zu weiteren Einblicken und Verbesserungen in der Turbulenzmodellierung führen.
Darüber hinaus sind Forscher daran interessiert, das Potenzial zu untersuchen, diese Methoden auf andere komplexe Herausforderungen in der Fluiddynamik anzuwenden, möglicherweise über den Bereich der Turbulenz hinaus.
Fazit
Die Integration von Machine Learning mit traditionellen Methoden der Turbulenzmodellierung hat einen neuen Weg für Forscher eröffnet, die versuchen, turbulente Flüsse zu verstehen und zu steuern. Durch die Nutzung datengetriebener Ansätze können Wissenschaftler genauere und effizientere Modelle entwickeln, die das komplexe Verhalten der Turbulenz erfassen, was letztendlich die Vorhersagen und Anwendungen in verschiedenen Bereichen verbessert.
Während sich dieses Feld weiterentwickelt, bleiben wir optimistisch, dass diese Techniken zu Durchbrüchen in unserem Verständnis der Fluiddynamik und dem effektiven Management der zahlreichen Systeme, die von Turbulenz betroffen sind, führen werden. Die fortlaufende Erforschung datengetriebener Methoden verspricht, neue Werkzeuge und Wissen hervorzubringen, die die Art und Weise revolutionieren könnten, wie wir Herausforderungen in der Fluiddynamik studieren und angehen.
Titel: Kinetic data-driven approach to turbulence subgrid modeling
Zusammenfassung: Numerical simulations of turbulent flows are well known to pose extreme computational challenges due to the huge number of dynamical degrees of freedom required to correctly describe the complex multi-scale statistical correlations of the velocity. On the other hand, kinetic mesoscale approaches based on the Boltzmann equation, have the potential to describe a broad range of flows, stretching well beyond the special case of gases close to equilibrium, which results in the ordinary Navier-Stokes dynamics. Here we demonstrate that, by properly tuning, a kinetic approach can statistically reproduce the quantitative dynamics of the larger scales in turbulence, thereby providing an alternative, computationally efficient and physically rooted approach towards subgrid scale (SGS) modeling in turbulence. More specifically we show that by leveraging on data from fully resolved Direct Numerical Simulation (DNS) data we can learn a collision operator for the discretized Boltzmann equation solver (the lattice Boltzmann method), which effectively implies a turbulence subgrid closure model. The mesoscopic nature of our formulation makes the learning problem fully local in both space and time, leading to reduced computational costs and enhanced generalization capabilities. We show that the model offers superior performance compared to traditional methods, such as the Smagorinsky model, being less dissipative and, therefore, being able to more closely capture the intermittency of higher-order velocity correlations.
Autoren: Giulio Ortali, Alessandro Gabbana, Nicola Demo, Gianluigi Rozza, Federico Toschi
Letzte Aktualisierung: 2024-03-27 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2403.18466
Quell-PDF: https://arxiv.org/pdf/2403.18466
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.
Referenz Links
- https://doi.org/10.1017/CBO9781139170666
- https://doi.org/10.1017/CBO9780511840531
- https://doi.org/10.1115/1.3124648
- https://doi.org/10.1016/j.cja.2014.12.007
- https://doi.org/10.1017/S0022112097008306
- https://doi.org/10.1175/1520-0493
- https://doi.org/10.1103/PhysRevLett.85.1436
- https://doi.org/10.1017/S0022112006003429
- https://doi.org/10.2514/6.1992-439
- https://www.deeplearningbook.org
- https://dx.doi.org/10.1073/pnas.2101784118
- https://dx.doi.org/10.1038/s43588-022-00264-7
- https://dx.doi.org/10.1098/rspa.2023.0058
- https://dx.doi.org/10.1017/jfm.2016.615
- https://dx.doi.org/10.1146/annurev-fluid-010518-040547
- https://dx.doi.org/10.1145/3394486.3403198
- https://dx.doi.org/10.1063/1.5054835
- https://dx.doi.org/10.1017/jfm.2018.770
- https://dx.doi.org/10.1103/PhysRevFluids.5.054606
- https://dx.doi.org/10.1017/jfm.2020.931
- https://dx.doi.org/10.1103/PhysRevFluids.6.024607
- https://dx.doi.org/10.1073/pnas.2213638120
- https://dx.doi.org/10.1016/j.jcp.2019.108910
- https://dx.doi.org/10.1016/j.compfluid.2019.104319
- https://dx.doi.org/10.1103/PhysRevE.99.053113
- https://dx.doi.org/10.1016/j.ijheatfluidflow.2022.109094
- https://dx.doi.org/10.1016/S0045-7930
- https://dx.doi.org/10.1063/1.5110788
- https://dx.doi.org/10.1063/5.0053590
- https://dx.doi.org/10.1126/science.1085048
- https://dx.doi.org/10.1016/0370-1573
- https://dx.doi.org/10.1093/oso/9780199592357.001.0001
- https://dx.doi.org/10.1007/978-3-319-44649-3
- https://dx.doi.org/10.1103/PhysRev.94.511
- https://dx.doi.org/10.1140/epje/s10189-023-00267-w
- https://dx.doi.org/10.48550/arXiv.2202.03376
- https://dx.doi.org/10.1103/PhysRevE.48.R29
- https://dx.doi.org/10.1103/PhysRevE.61.6546
- https://dx.doi.org/10.1098/rsta.2001.0955
- https://dx.doi.org/10.1103/PhysRevE.73.056702
- https://dx.doi.org/10.1016/j.jocs.2016.03.002
- https://dx.doi.org/10.1016/j.camwa.2009.02.024
- https://dx.doi.org/10.48550/arXiv.1904.09751
- https://dx.doi.org/10.1016/0166-218X
- https://dx.doi.org/10.48550/arXiv.1904.13310
- https://dx.doi.org/10.1016/j.compfluid.2024.106191