Simple Science

La science de pointe expliquée simplement

# Génie électrique et science des systèmes# Systèmes et contrôle# Systèmes et contrôle

Gestion du contrôle de la tension avec des sources d'énergie renouvelables

Une nouvelle méthode utilise l'apprentissage profond pour stabiliser les systèmes électriques avec des énergies renouvelables.

― 7 min lire


Contrôle de tension pourContrôle de tension pourles renouvelablesélectriques fiables.Nouvelles stratégies pour des systèmes
Table des matières

L'utilisation des énergies renouvelables (comme le vent et le solaire) est en pleine expansion. Elles sont essentielles pour réduire les émissions de carbone et fournir de l'électricité abordable. Cependant, intégrer ces Sources d'énergie renouvelable dans les systèmes énergétiques existants peut poser des problèmes. La production d'énergie à partir de ces sources peut être imprévisible, menant à des niveaux de tension instables dans les systèmes d'alimentation. Cette inconsistance peut freiner l'efficacité des ressources renouvelables et entraîner des coupures de courant ou des dommages aux équipements.

Pour résoudre ces problèmes, les chercheurs explorent des méthodes qui peuvent aider à équilibrer le besoin de contrôle stable de la tension tout en intégrant davantage de sources d'énergie renouvelable. Cet article propose une nouvelle approche qui utilise l'Apprentissage par renforcement profond (DRL) pour gérer cet équilibre efficacement.

Le défi des renouvelables

Les sources d'énergie renouvelable, notamment le solaire et l'éolien, ont connu une augmentation significative de leur utilisation au fil des ans. Par exemple, la puissance solaire installée est passée de seulement 8 gigawatts (GW) en 2007 à environ 940 GW en 2021. La capacité éolienne a également augmenté, passant de 94 GW à environ 837 GW pendant la même période. Ces sources offrent de nombreux avantages. Elles aident à réduire les émissions de carbone et peuvent faire baisser les coûts de l'électricité.

Cependant, au fur et à mesure que de plus en plus de sources d'énergie renouvelable sont ajoutées à l'approvisionnement électrique, cela engendre de l'imprévisibilité. Des facteurs comme la météo et la lumière du soleil peuvent causer des fluctuations dans la production d'énergie. Cette variabilité peut entraîner des pics et des chutes de tension, affectant la stabilité et la fiabilité du système. Le contrôle de la tension devient primordial, surtout dans les systèmes avec de nombreuses sources d'énergie renouvelable.

Méthodes actuelles de contrôle de la tension

Il existe plusieurs méthodes disponibles pour contrôler la tension dans les systèmes électriques. Ces méthodes peuvent être classées en trois types principaux :

  1. Méthodes d'optimisation distribuée : Ces méthodes impliquent de résoudre des équations complexes pour trouver la meilleure stratégie de contrôle de la tension. Bien qu’elles puissent être efficaces, elles sont souvent lentes et coûteuses en ressources, surtout pour les grands réseaux.

  2. Méthodes décentralisées : Celles-ci consistent à diviser le système électrique en petites régions et à appliquer des techniques d'optimisation à chaque section. Bien qu'elles soient plus gérables, elles peinent souvent à converger dans les systèmes avec une forte intégration de sources renouvelables.

  3. Méthodes basées sur l'apprentissage : Contrairement aux méthodes précédentes, cette approche utilise des techniques avancées, comme l'apprentissage par renforcement profond. Le DRL permet au modèle d'apprendre de ses expériences passées, ce qui facilite son adaptation aux incertitudes présentes dans la production d'énergie renouvelable.

Chacune de ces méthodes a ses forces et ses faiblesses en matière de contrôle de la tension dans les systèmes qui incluent des sources d'énergie renouvelable.

L'approche proposée

Pour répondre aux limites des méthodes actuelles, une nouvelle stratégie basée sur l'apprentissage par renforcement profond (DRL) est proposée. Cette stratégie vise à équilibrer dynamiquement le besoin de niveaux de tension stables tout en intégrant un nombre croissant de sources d'énergie renouvelable.

Le cadre

L'approche proposée utilise un modèle spécifique d'apprentissage profond connu sous le nom de réseau de convolution graphique spatial-temporel basé sur l'attention multi-grainée (MG-ASTGCN). Ce modèle est conçu pour rassembler et analyser des informations spatiales et temporelles sur le système électrique, en se concentrant sur la façon dont différents nœuds (ou parties du réseau) interagissent les uns avec les autres au fil du temps.

Les composants clés du MG-ASTGCN incluent :

  • Mécanisme d'attention spatiale : Cela aide à identifier et à se concentrer sur les relations importantes entre différents nœuds dans le système électrique. Il examine comment chaque nœud est influencé par ses nœuds voisins.

  • Mécanisme d'attention temporelle : Cela suit comment les caractéristiques de chaque nœud changent avec le temps. Cela aide le système à se souvenir des états passés et à utiliser ces informations pour des prédictions futures.

  • Convolution graphique : Cette technique permet au modèle de traiter des informations sur la structure du réseau, le rendant adapté à la compréhension des relations complexes entre les nœuds.

En combinant ces éléments, le modèle peut apprendre des expériences passées pour améliorer sa prise de décision dans la gestion des niveaux de tension tout en intégrant davantage de sources d'énergie renouvelable.

Simulation et validation

Pour tester cette nouvelle approche, des Simulations ont été réalisées en utilisant des versions modifiées de systèmes d'alimentation standard, notamment les systèmes à 33, 69 et 118 bus de l'IEEE. Ces systèmes sont couramment utilisés en recherche en raison de leurs références établies.

Les résultats ont montré que l'approche proposée surpassait considérablement les méthodes d'optimisation traditionnelles. La stratégie basée sur le DRL a non seulement amélioré la stabilisation de la tension, mais a également permis une plus grande intégration des sources d'énergie renouvelable.

Principales conclusions des simulations

  1. Accélération de la vitesse d'apprentissage : L'intégration du MG-ASTGCN a aidé à accélérer le processus d'apprentissage du modèle DRL, lui permettant de prendre des décisions plus rapidement.

  2. Meilleure prise de décision : Les mécanismes d'attention spatiale et temporelle ont fourni au modèle des informations critiques qui ont amélioré sa capacité à gérer efficacement le contrôle de la tension et l'intégration des renouvelables.

  3. Robustesse : L'approche a également démontré une plus grande stabilité face aux pannes de générateur, garantissant que le système électrique pouvait se remettre plus rapidement des perturbations.

  4. Équilibre des performances : Une découverte importante a été l'importance d'équilibrer le contrôle de la tension avec l'intégration des renouvelables. Si l'accent est mis trop fortement sur un aspect, cela peut entraîner des performances sous-optimales dans l'autre.

Conclusion

En résumé, l'intégration des sources d'énergie renouvelable dans les systèmes électriques existants présente de nombreux défis, en particulier en ce qui concerne le maintien de niveaux de tension stables. Cet article a proposé une nouvelle stratégie utilisant l'apprentissage par renforcement profond, en particulier à travers le développement d'un réseau de convolution graphique spatial-temporel basé sur l'attention multi-grainée.

En utilisant les avancées récentes en apprentissage automatique, cette approche permet une gestion plus efficace du contrôle de la tension et de l'intégration des énergies renouvelables. Les résultats des simulations indiquent que cette méthode peut améliorer considérablement la performance et la stabilité globale des systèmes électriques.

Les travaux futurs se concentreront sur la création de stratégies supplémentaires pour promouvoir encore plus l'intégration des sources d'énergie renouvelable tout en garantissant la fiabilité et la stabilité de la fourniture d'énergie. Cela est vital alors que le monde continue de passer à des sources d'énergie plus durables dans la quête d'un avenir plus propre et plus vert.

Source originale

Titre: Deep Reinforcement Learning for Voltage Control and Renewable Accommodation Using Spatial-Temporal Graph Information

Résumé: Renewable energy resources (RERs) have been increasingly integrated into distribution networks (DNs) for decarbonization. However, the variable nature of RERs introduces uncertainties to DNs, frequently resulting in voltage fluctuations that threaten system security and hamper the further adoption of RERs. To incentivize more RER penetration, we propose a deep reinforcement learning (DRL)-based strategy to dynamically balance the trade-off between voltage fluctuation control and renewable accommodation. To further extract multi-time-scale spatial-temporal (ST) graphical information of a DN, our strategy draws on a multi-grained attention-based spatial-temporal graph convolution network (MG-ASTGCN), consisting of ST attention mechanism and ST convolution to explore the node correlations in the spatial and temporal views. The continuous decision-making process of balancing such a trade-off can be modeled as a Markov decision process optimized by the deep deterministic policy gradient (DDPG) algorithm with the help of the derived ST information. We validate our strategy on the modified IEEE 33, 69, and 118-bus radial distribution systems, with outcomes significantly outperforming the optimization-based benchmarks. Simulations also reveal that our developed MG-ASTGCN can to a great extent accelerate the convergence speed of DDPG and improve its performance in stabilizing node voltage in an RER-rich DN. Moreover, our method improves the DN's robustness in the presence of generator failures.

Auteurs: Jinhao Li, Ruichang Zhang, Hao Wang, Zhi Liu, Hongyang Lai, Yanru Zhang

Dernière mise à jour: 2024-01-28 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2401.15848

Source PDF: https://arxiv.org/pdf/2401.15848

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires