Évaluation des modèles de prévision météo basés sur les données
Les tests en conditions réelles sont essentiels pour les modèles météo basés sur les données.
― 8 min lire
Table des matières
- Qu'est-ce que la prévision météorologique basée sur les données ?
- Le défi des évaluations actuelles
- L'importance des données réelles
- Présentation des observations in situ
- Comparaison des modèles basés sur les données avec les modèles traditionnels
- La nécessité d'évaluations approfondies
- Le rôle des observations MADIS
- Caractéristiques du dataset
- Niveaux de contrôle de qualité
- Distribution des données
- Évaluation de la performance des modèles
- Implications pour la recherche future
- Le rôle de l'interpolation
- Traiter le biais géographique
- Conclusion
- Source originale
- Liens de référence
La prévision météorologique a fait de gros progrès ces dernières années, surtout avec l'émergence de Modèles basés sur les données. Ces modèles peuvent fournir des prévisions rapides, précises et économiques. Cependant, même s'ils sont prometteurs, il faut encore évaluer leur performance dans des conditions réelles.
Qu'est-ce que la prévision météorologique basée sur les données ?
Les modèles de prévision météorologique basés sur les données utilisent différentes sources d'infos pour prévoir les conditions météorologiques. Ils sont conçus pour apprendre des données météorologiques passées et faire des prédictions sur le futur. Un modèle comme FourCastNet a attiré l'attention pour sa grande précision lorsqu'il a été testé avec des données historiques.
Le défi des évaluations actuelles
La plupart des évaluations existantes de ces modèles s’appuient sur un dataset appelé ERA5, qui mêle observations du monde réel et sorties de prévisions numériques. Bien que ce dataset soit de haute qualité, il ne remplace pas les véritables observations météorologiques sur le terrain. Se fier uniquement à ERA5 peut mener à des conclusions trompeuses sur la performance d'un modèle en conditions réelles.
L'importance des données réelles
Pour vraiment comprendre comment ces modèles basés sur les données fonctionnent, il faut les tester avec des données météorologiques réelles collectées à partir de diverses sources. Ce type d'évaluation aide à fournir une image plus précise de leur performance en pratique. Ces évaluations sont particulièrement importantes pour les secteurs qui dépendent beaucoup des prévisions météorologiques, comme l'agriculture, l'énergie et le transport.
Présentation des observations in situ
Pour répondre au besoin de tests en conditions réelles, un dataset d’observations in situ du Système d’Ingestion de Données d'Assimilation Météorologique de la NOAA (MADIS) a été créé. Ce dataset regroupe de nombreuses observations météorologiques vérifiées collectées à l’échelle mondiale. Ces observations peuvent servir de référence pour valider la performance des modèles de prévision basés sur les données face aux conditions météorologiques réelles.
Comparaison des modèles basés sur les données avec les modèles traditionnels
En utilisant le dataset MADIS, on peut comparer FourCastNet avec un modèle de prévision numérique traditionnel, connu sous le nom de Système de prévision intégré (IFS). Bien que FourCastNet montre de meilleures performances que l'IFS avec les données ERA5, cet avantage n'est pas aussi évident lorsqu'on le compare aux observations réelles. Cette découverte met en avant comment la performance d'un modèle peut varier considérablement selon les données utilisées pour l'évaluer.
La nécessité d'évaluations approfondies
Évaluer les modèles basés sur les données uniquement avec des données de simulation de haute qualité comme ERA5 peut donner une vision incomplète de leur performance. Les évaluations dans le monde réel sont cruciales pour comprendre comment ces modèles se comportent dans des scénarios réels, où les conditions peuvent varier énormément des environnements simulés. Cela souligne également l'importance de disposer de références adéquates pour évaluer la fiabilité des modèles.
Le rôle des observations MADIS
Les observations MADIS permettent une évaluation impartiale des modèles de prévision basés sur les données et des modèles traditionnels. Étant donné que ces observations reflètent les conditions météorologiques réelles sur le terrain, elles sont essentielles pour une comparaison équitable. L'objectif est d'utiliser ces données pour créer des références sur lesquelles tous les modèles météorologiques peuvent être testés, garantissant des résultats cohérents et significatifs.
Caractéristiques du dataset
Le dataset MADIS2020 contient plus de 700 millions d'observations collectées tout au long de 2020. Il se concentre sur des variables météorologiques clés telles que la température, le point de rosée et la vitesse du vent. Chaque observation est accompagnée de drapeaux de Contrôle de qualité indiquant la fiabilité des données. Les observations sont classées selon qu'elles répondent à différents niveaux de contrôle de qualité.
Niveaux de contrôle de qualité
Le système de contrôle de qualité classe les observations en plusieurs niveaux :
- Niveau 1 : Des vérifications de base confirment que les observations se situent dans des plages raisonnables.
- Niveau 2 : Des vérifications supplémentaires garantissent la cohérence interne et la stabilité temporelle.
- Niveau 3 : Des vérifications supplémentaires comparent les observations individuelles avec celles des alentours pour vérifier la cohérence.
Seules les observations qui répondent au moins aux vérifications de niveau 2 sont incluses dans le dataset pour l'analyse. Cette approche aide à éliminer les données bruyantes, garantissant que les observations utilisées pour l'évaluation sont aussi précises que possible.
Distribution des données
Le dataset n'est pas uniformément réparti à l'échelle mondiale. Les observations dans des zones comme l'Amérique du Nord et l'Europe sont plus abondantes, tandis que les régions comme l'Asie et le Sud global ont moins d'observations de qualité. Ce biais géographique peut impacter la performance et l'évaluation des modèles, rendant crucial de prendre en compte ces différences lors de l'utilisation des données.
Évaluation de la performance des modèles
Pour évaluer la performance de FourCastNet avec les observations MADIS, nous avons effectué des comparaisons avec le modèle IFS. Les premiers tests ont montré que bien que FourCastNet ait surpassé l'IFS avec les données ERA5, cet avantage s'est estompé lorsqu'on s'est penché sur les observations réelles. Les deux modèles ont eu des performances similaires face aux données réelles, indiquant que les conditions d'entraînement des modèles peuvent grandement influencer leur efficacité.
Implications pour la recherche future
Les différences de performance soulèvent des questions importantes sur la façon dont les modèles basés sur les données peuvent être améliorés pour des applications réelles. Un domaine potentiel d'amélioration est la manière dont ces modèles sont initialisés. Utiliser des données de départ plus précises, reflétant les conditions opérationnelles, pourrait améliorer leur précision prédictive.
Le rôle de l'interpolation
Les prévisions météorologiques doivent souvent être livrées pour des endroits spécifiques, pas seulement des zones générales. Cela nécessite des techniques d'interpolation pour convertir les prévisions basées sur des grilles en prédictions spécifiques à un point. L’interpolation bilinéaire est une méthode courante utilisée à cet effet. Cependant, explorer des méthodes d'interpolation plus avancées pourrait donner de meilleurs résultats, surtout dans les zones où les caractéristiques géographiques jouent un rôle significatif dans les modèles météorologiques.
Traiter le biais géographique
Le biais géographique dans le dataset signifie que certaines zones peuvent ne pas être suffisamment représentées dans les évaluations météorologiques. En conséquence, les modèles basés sur les données formés sur ces datasets peuvent ne pas bien performer dans les régions où les données sont rares. Traiter ce biais sera essentiel pour améliorer la fiabilité des prévisions météorologiques dans divers contextes géographiques.
Conclusion
Les modèles de prévision météorologique basés sur les données ont fait d'énormes progrès et montrent un grand potentiel pour une utilisation opérationnelle. Cependant, ces modèles doivent être rigoureusement testés avec des données réelles pour assurer leur fiabilité. La disponibilité du dataset MADIS2020 offre une opportunité d'effectuer ces évaluations de manière significative.
En comparant des modèles comme FourCastNet avec des équivalents traditionnels dans des situations pratiques, les chercheurs peuvent mieux comprendre leurs forces et leurs faiblesses. Ce processus d'évaluation est vital pour prendre des décisions éclairées concernant l'utilisation des modèles basés sur les données dans la prévision météorologique en conditions réelles. Les travaux futurs devraient se concentrer sur le perfectionnement de ces modèles et veiller à ce qu'ils soient capables de fournir des prévisions précises dans divers contextes géographiques.
Titre: Verification against in-situ observations for Data-Driven Weather Prediction
Résumé: Data-driven weather prediction models (DDWPs) have made rapid strides in recent years, demonstrating an ability to approximate Numerical Weather Prediction (NWP) models to a high degree of accuracy. The fast, accurate, and low-cost DDWP forecasts make their use in operational forecasting an attractive proposition, however, there remains work to be done in rigorously evaluating DDWPs in a true operational setting. Typically trained and evaluated using ERA5 reanalysis data, DDWPs have been tested only in a simulation, which cannot represent the real world with complete accuracy even if it is of a very high quality. The safe use of DDWPs in operational forecasting requires more thorough "real-world" verification, as well as a careful examination of how DDWPs are currently trained and evaluated. It is worth asking, for instance, how well do the reanalysis datasets, used for training, simulate the real world? With an eye towards climate justice and the uneven availability of weather data: is the simulation equally good for all regions of the world, and would DDWPs exacerbate biases present in the training data? Does a good performance in simulation correspond to good performance in operational settings? In addition to approximating the physics of NWP models, how can ML be uniquely deployed to provide more accurate weather forecasts? As a first step towards answering such questions, we present a robust dataset of in-situ observations derived from the NOAA MADIS program to serve as a benchmark to validate DDWPs in an operational setting. By providing a large corpus of quality-controlled, in-situ observations, this dataset provides a meaningful real-world task that all NWPs and DDWPs can be tested against. We hope that this data can be used not only to rigorously and fairly compare operational weather models but also to spur future research in new directions.
Auteurs: Vivek Ramavajjala, Peetak P. Mitra
Dernière mise à jour: 2023-09-05 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2305.00048
Source PDF: https://arxiv.org/pdf/2305.00048
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.
Liens de référence
- https://www.emc.ncep.noaa.gov/users/verification/global/gfs/ops/grid2grid_all_models/rmse/
- https://sites.ecmwf.int/ifs/scorecards/scorecards-48r1ENS.html
- https://huggingface.co/datasets/excarta/madis2020
- https://madis.ncep.noaa.gov/index.shtml
- https://madis.ncep.noaa.gov/mesonet_providers.shtml
- https://madis.ncep.noaa.gov/madis_sfc_qc_notes.shtml
- https://github.com/NVlabs/FourCastNet
- https://confluence.ecmwf.int/display/CKB/ERA5
- https://docs.xarray.dev/en/stable/generated/xarray.DataArray.interp.html
- https://www.ecmwf.int/en/research/projects/tigge
- https://www.ecmwf.int/en/forecasts/dataset/ecmwf-reanalysis-v5