Avancer l'inversion de forme d'onde complète avec des réseaux de neurones
Utiliser des réseaux de neurones pour améliorer l'inversion d'onde complète pour de meilleures images souterraines.
― 10 min lire
Table des matières
- C'est quoi l'inversion de forme d'onde complète ?
- Le rôle des réseaux de neurones
- L'importance d'une bonne première estimation
- Introduction à l'Apprentissage par transfert
- Préentrainement du réseau de neurones
- Comment l'apprentissage par transfert améliore la FWI
- Évaluation des dégâts dans les infrastructures
- Défis de la FWI pour les infrastructures
- Améliorer la FWI avec l'apprentissage profond
- Exigences en matière de données pour l'entraînement
- Paramétrisation en FWI
- Utiliser les informations de gradient
- Approches hybrides
- L'apprentissage par transfert en action
- Défis de l'apprentissage par transfert
- Évaluation des méthodes
- Résultats des études de cas
- L'importance des premières estimations
- Limitations dans des scénarios complexes
- Résumé des principales conclusions
- Directions futures
- Source originale
- Liens de référence
L'Inversion de forme d'onde complète (FWI) est une technique qui sert à créer des images des matériaux souterrains en analysant comment les ondes y voyagent. Ce procédé est super utile quand on a peu de données, ce qui arrive souvent dans des domaines comme l'ingénierie et la géophysique. En utilisant une forme d'intelligence artificielle appelée réseaux de neurones (NN), les chercheurs visent à rendre la FWI plus précise et rapide.
C'est quoi l'inversion de forme d'onde complète ?
La FWI utilise des ondes générées par une source, comme un tremblement de terre ou des impulsions artificielles, pour en apprendre sur les propriétés des matériaux du sol. Quand ces ondes traversent différents matériaux, leur vitesse et leur amplitude changent, et en étudiant ces changements, les scientifiques peuvent deviner ce qui se cache sous la surface. Les méthodes traditionnelles de FWI peuvent être lentes et ne pas donner de résultats clairs face à des matériaux complexes ou endommagés.
Le rôle des réseaux de neurones
Les réseaux de neurones sont un type de modèle d'apprentissage machine qui peut apprendre à reconnaître des motifs dans des données. En appliquant ces modèles à la FWI, les chercheurs peuvent améliorer le processus d'estimation des propriétés des matériaux. Les NN peuvent gérer des relations complexes dans les données que les méthodes traditionnelles auraient du mal à traiter. Ça veut dire qu'ils peuvent potentiellement améliorer la vitesse et la précision du processus de reconstruction.
L'importance d'une bonne première estimation
Au début du processus FWI, avoir une bonne première estimation des propriétés des matériaux est crucial. Si cette estimation est proche des propriétés réelles, le processus d'optimisation peut converger plus vite et donner des résultats plus fiables. Dans beaucoup de cas, les chercheurs utilisent des valeurs aléatoires pour initialiser le réseau, mais ça peut mener à des performances imprévisibles. Une estimation initiale faible peut vraiment freiner l'efficacité de la FWI.
Apprentissage par transfert
Introduction à l'L'apprentissage par transfert est une méthode de machine learning où un modèle formé sur une tâche est ajusté pour en réaliser une autre, mais liée. Cette technique peut être super bénéfique en FWI. En pré-entraînant un Réseau de neurones sur un ensemble de données spécifique, on peut lui donner un bon point de départ pour la FWI. Le modèle pré-entraîné peut reconnaître des caractéristiques importantes liées aux propriétés des matériaux, accélérant ainsi le processus d'apprentissage et améliorant les résultats.
Préentrainement du réseau de neurones
Dans cette approche, un réseau de neurones est d'abord formé en utilisant des données d'anciennes tâches FWI. Cet entraînement initial aide le réseau à prédire les propriétés des matériaux à partir des signaux des ondes. Plutôt que de repartir de zéro, le modèle pré-entraîné peut ensuite être affiné pour une nouvelle tâche FWI, le rendant plus précis et rapide dans l'estimation de ce qui est sous terre.
Comment l'apprentissage par transfert améliore la FWI
En intégrant l'apprentissage par transfert dans la FWI, les chercheurs peuvent réduire significativement le temps nécessaire pour entraîner le réseau de neurones. Ça améliore aussi la qualité des résultats en offrant un meilleur point de départ pour le processus d'optimisation. Le réseau, qui a déjà appris des infos utiles, est maintenant moins dépendant d'une initialisation aléatoire, ce qui mène à une convergence plus rapide et fiable vers une solution optimale.
Évaluation des dégâts dans les infrastructures
Les infrastructures civiles peuvent se détériorer pour différentes raisons, comme des charges lourdes ou des catastrophes naturelles. Pour évaluer les dégâts dans les bâtiments et les ponts, des méthodes de test non destructives comme la FWI peuvent être appliquées. Cependant, identifier avec précision les défauts est un vrai défi. Les chercheurs cherchent comment mieux utiliser la FWI pour évaluer les matériaux sans causer de dommages.
Défis de la FWI pour les infrastructures
Extraire des infos claires sur les dégâts à travers la FWI n'est pas facile. Le problème d'optimisation peut souvent être complexe et exige beaucoup de calculs. De plus, il peut y avoir beaucoup de variables en jeu, comme les différentes formes et orientations des défauts. Cette complexité veut dire que les méthodes traditionnelles de FWI peinent parfois à donner des résultats clairs.
Améliorer la FWI avec l'apprentissage profond
Les techniques d'apprentissage profond, qui sont des formes avancées d'apprentissage machine, offrent une manière prometteuse d'améliorer la FWI. En incorporant des réseaux de neurones, les chercheurs peuvent créer de meilleurs modèles capables de capturer les détails nécessaires pour une évaluation efficace des dégâts. Il existe plusieurs méthodes pour implémenter les NN dans la FWI, nécessitant souvent de grands ensembles de données pour l'entraînement.
Exigences en matière de données pour l'entraînement
Un gros obstacle en utilisant des méthodes d'apprentissage supervisé, c'est le besoin de données d'entraînement étendues. Dans beaucoup de cas, obtenir suffisamment de données fiables peut demander beaucoup de ressources et de temps. Les réseaux antagonistes génératifs sont une solution potentielle, car ils peuvent créer des données synthétiques pour compléter l'ensemble de données d'entraînement. Cependant, les prédictions faites par ces modèles peuvent manquer de fiabilité à cause d'inexactitudes dans les données d'entraînement.
Paramétrisation en FWI
Dans la FWI basée sur les NN, un réseau de neurones prédit les coefficients qui représentent les propriétés des matériaux étudiés. Cette configuration permet au réseau d'apprendre à partir des données disponibles et d'améliorer ses prédictions avec le temps. Une méthode courante consiste à utiliser un réseau de neurones pour prédire la distribution des vitesses des ondes et des densités en fonction des signaux d'ondes reçus.
Utiliser les informations de gradient
Pour améliorer encore la FWI avec des réseaux de neurones, les chercheurs peuvent intégrer les informations de gradient des itérations précédentes de la FWI. Cette méthode aide à estimer les propriétés des matériaux en se basant sur les résultats des exécutions précédentes. L'idée est de tirer parti du gradient calculé pendant le processus d'optimisation pour guider l'apprentissage du réseau de neurones.
Approches hybrides
Les méthodes hybrides combinent les avantages de la FWI traditionnelle avec des techniques d'apprentissage machine. Par exemple, une approche largement étudiée utilise des réseaux de neurones pour prédire les coefficients des propriétés des matériaux tout en utilisant des techniques d'optimisation conventionnelles. Cette combinaison permet de traiter de manière plus flexible la complexité des données, ce qui permet une convergence plus rapide vers des solutions.
L'apprentissage par transfert en action
L'apprentissage par transfert peut être appliqué directement à la FWI en préentraînant un réseau de neurones sur un ensemble de données dérivé de tâches FWI précédentes. Dans ce contexte, le réseau de neurones apprend à estimer les propriétés des matériaux en fonction des motifs observés dans les données d'entraînement. En conséquence, lorsqu'il est utilisé pour une nouvelle tâche FWI, le réseau fonctionne avec une base plus solide et peut produire des résultats plus efficacement.
Défis de l'apprentissage par transfert
Malgré ses avantages, l'apprentissage par transfert n'est pas sans défis. Le réglage des hyperparamètres, où les paramètres du processus d'apprentissage sont ajustés pour optimiser les performances, peut être délicat. Le choix des données d'entraînement appropriées est aussi crucial : si les données sont trop similaires au problème à traiter, le surapprentissage peut se produire, ce qui peut amener le modèle à mal performer sur des données non vues.
Évaluation des méthodes
Pour évaluer l'efficacité de l'apprentissage par transfert en FWI, les chercheurs réalisent généralement de nombreux tests avec différents cas de dommages. En comparant la performance de plusieurs méthodes - FWI conventionnelle, FWI basée sur des NN sans préentraînement, et FWI basée sur des NN avec une première estimation - les scientifiques peuvent évaluer à quel point l'approche d'apprentissage par transfert fonctionne.
Résultats des études de cas
Dans des tests portant sur différents scénarios de dommages, il devient clair que l'apprentissage par transfert peut améliorer considérablement la FWI. Par exemple, quand on examine des dommages simples, la FWI conventionnelle peut récupérer la forme des dommages en quelques itérations, mais elle peut encore souffrir d'artefacts ou d'inexactitudes. En revanche, la FWI basée sur les NN peut récupérer les formes rapidement avec moins de bruit dans les résultats.
L'importance des premières estimations
Dans de nombreux scénarios, avoir une bonne première estimation d'un réseau préentraîné peut améliorer radicalement les résultats de la FWI. Dans les cas où les modèles de départ prédits sont précis, la reconstruction des dommages est souvent réalisée plus rapidement et avec plus de clarté. Cela souligne l'importance de préparer un ensemble de données robuste pour un apprentissage par transfert efficace.
Limitations dans des scénarios complexes
Bien que l'apprentissage par transfert puisse être excellent pour de nombreux cas, il a des limitations, surtout dans des scénarios plus compliqués où les formes des dommages attendus diffèrent significativement de celles des données d'entraînement. Dans de telles situations, la première estimation peut ne pas être suffisamment précise pour donner des résultats satisfaisants, montrant la nécessité de raffiner davantage les méthodes utilisées.
Résumé des principales conclusions
Dans l'ensemble, l'intégration de l'apprentissage par transfert dans la FWI a un potentiel significatif pour améliorer les performances dans diverses applications, en particulier pour évaluer les dommages dans les infrastructures civiles. En utilisant des réseaux de neurones préentraînés, les chercheurs peuvent améliorer les temps de récupération et la précision, menant à de meilleures évaluations des propriétés des matériaux. Cependant, il faut faire attention au choix des données et à la conception du processus d'entraînement pour garantir des résultats optimaux.
Directions futures
En regardant vers l'avenir, d'autres avancées dans l'architecture des réseaux de neurones et les techniques d'entraînement devraient conduire à des méthodes encore plus robustes pour appliquer l'apprentissage par transfert en FWI. Au fur et à mesure que le domaine du machine learning continue d'évoluer, les possibilités d'améliorer la FWI ne manqueront pas, offrant finalement de meilleures perspectives sur les propriétés des matériaux et les évaluations de dommages dans divers domaines.
Titre: Accelerating Full Waveform Inversion By Transfer Learning
Résumé: Full waveform inversion (FWI) is a powerful tool for reconstructing material fields based on sparsely measured data obtained by wave propagation. For specific problems, discretizing the material field with a neural network (NN) improves the robustness and reconstruction quality of the corresponding optimization problem. We call this method NN-based FWI. Starting from an initial guess, the weights of the NN are iteratively updated to fit the simulated wave signals to the sparsely measured data set. For gradient-based optimization, a suitable choice of the initial guess, i.e., a suitable NN weight initialization, is crucial for fast and robust convergence. In this paper, we introduce a novel transfer learning approach to further improve NN-based FWI. This approach leverages supervised pretraining to provide a better NN weight initialization, leading to faster convergence of the subsequent optimization problem. Moreover, the inversions yield physically more meaningful local minima. The network is pretrained to predict the unknown material field using the gradient information from the first iteration of conventional FWI. In our computational experiments on two-dimensional domains, the training data set consists of reference simulations with arbitrarily positioned elliptical voids of different shapes and orientations. We compare the performance of the proposed transfer learning NN-based FWI with three other methods: conventional FWI, NN-based FWI without pretraining and conventional FWI with an initial guess predicted from the pretrained NN. Our results show that transfer learning NN-based FWI outperforms the other methods in terms of convergence speed and reconstruction quality.
Auteurs: Divya Shyam Singh, Leon Herrmann, Qing Sun, Tim Bürchner, Felix Dietrich, Stefan Kollmannsberger
Dernière mise à jour: 2024-08-01 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2408.00695
Source PDF: https://arxiv.org/pdf/2408.00695
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.
Liens de référence
- https://ctan.org/pkg/multicols
- https://www.latex-project.org/lppl.txt
- https://doi.org/10.5281/zenodo.13150916
- https://dx.doi.org/10.1061/
- https://doi.org/10.1061/
- https://dx.doi.org/10.1098/rsta.2006.1932
- https://doi.org/10.1098/rsta.2006.1932
- https://dx.doi.org/10.1145/1236360.1236395
- https://doi.org/10.1145/1236360.1236395
- https://dx.doi.org/10.1190/1.1441754
- https://doi.org/10.1190/1.1441754
- https://dx.doi.org/10.1007/978-3-642-15807-0
- https://doi.org/10.1007/978-3-642-15807-0
- https://www.sciencedirect.com/science/article/pii/B9780128135556099949
- https://doi.org/
- https://doi.org/10.1016/B978-0-12-813555-6.09994-9
- https://dx.doi.org/10.1063/1.4974657
- https://doi.org/10.1063/1.4974657
- https://dx.doi.org/10.1088/1361-665X/ac0f44
- https://doi.org/10.1088/1361-665x/ac0f44
- https://www.sciencedirect.com/science/article/pii/S0045782523000166
- https://doi.org/10.1016/j.cma.2023.115893
- https://www.sciencedirect.com/science/article/pii/S0045782523004103
- https://doi.org/10.1016/j.cma.2023.116286
- https://dx.doi.org/10.1190/1.3238367
- https://doi.org/10.1190/1.3238367
- https://dx.doi.org/10.1190/1.9781560803027.entry6
- https://doi.org/10.1190/1.9781560803027.entry6
- https://dx.doi.org/10.1190/geo2018-0249.1
- https://doi.org/10.1190/geo2018-0249.1
- https://doi.org/10.1109/TCI.2019.2956866
- https://dx.doi.org/10.1190/geo2018-0591.1
- https://doi.org/10.1190/geo2018-0591.1
- https://www.sciencedirect.com/science/article/pii/S0022460X22006010
- https://doi.org/10.1016/j.jsv.2022.117418
- https://dx.doi.org/10.1190/segam2018-2997901.1
- https://doi.org/10.1190/segam2018-2997901.1
- https://doi.org/10.1190/geo2019-0195.1
- https://arxiv.org/abs/
- https://pubs.geoscienceworld.org/geophysics/article-pdf/85/3/R275/5018257/geo-2019-0195.1.pdf
- https://library.seg.org/doi/abs/10.1190/iwmg2021-35.1
- https://library.seg.org/doi/pdf/10.1190/iwmg2021-35.1
- https://doi.org/10.1190/iwmg2021-35.1
- https://www.earthdoc.org/content/papers/10.3997/2214-4609.202210778
- https://doi.org/10.3997/2214-4609.202210778
- https://dx.doi.org/10.1115/1.4062092
- https://doi.org/10.1115/1.4062092
- https://dx.doi.org/10.1190/tle38110872a1.1
- https://doi.org/10.1190/tle38110872a1.1
- https://dx.doi.org/10.1190/geo2019-0382.1
- https://doi.org/10.1190/geo2019-0382.1
- https://dx.doi.org/10.1190/geo2020-0933.1
- https://doi.org/10.1190/geo2020-0933.1
- https://dx.doi.org/10.1016/j.cma.2023.116278
- https://doi.org/10.1016/j.cma.2023.116278
- https://dx.doi.org/10.1093/gji/ggad215
- https://doi.org/10.1093/gji/ggad215
- https://proceedings.mlr.press/v97/rahaman19a.html
- https://doi.org/10.1023/a:1007692713085
- https://dx.doi.org/10.1023/a:1007692713085
- https://dx.doi.org/10.1155/2022/3498123
- https://doi.org/10.1155/2022/3498123
- https://doi.org/10.1109/ICECA.2018.8474802
- https://dx.doi.org/10.1007/978-3-319-97982-3_16
- https://doi.org/10.1007/978-3-319-97982-3_16
- https://arxiv.org/abs/1604.02201
- https://arxiv.org/abs/1811.01137
- https://dx.doi.org/10.1115/DETC2021-69006
- https://doi.org/10.1115/detc2021-69006
- https://doi.org/10.1109/LRA.2018.2795653
- https://doi.org/10.1109/ICRA.2018.8461218
- https://doi.org/10.1109/AIM46323.2023.10196158
- https://arxiv.org/abs/math-ph/0401050
- https://doi.org/10.1109/TPAMI.2016.2644615
- https://arxiv.org/abs/1412.6980
- https://doi.org/10.48550/ARXIV.1412.6980
- https://papers.neurips.cc/paper/9015-pytorch-an
- https://dx.doi.org/10.1007/978-3-319-24574-4_28
- https://doi.org/10.1007/978-3-319-24574-4_28
- https://arxiv.org/abs/1308.0850
- https://doi.org/10.48550/ARXIV.1308.0850
- https://proceedings.mlr.press/v9/glorot10a.html
- https://dx.doi.org/10.1017/S0962492919000059
- https://doi.org/10.1017/s0962492919000059
- https://proceedings.neurips.cc/paper_files/paper/2020/file/0607f4c705595b911a4f3e7a127b44e0-Paper.pdf
- https://link.springer.com/article/10.1007/s00466-014-1118-x