Optimisation des réseaux de distribution électrique avec le DRL
Utiliser l'apprentissage par renforcement profond pour améliorer la fiabilité de la distribution d'énergie.
― 7 min lire
Table des matières
Le réseau de distribution est super important dans notre système électrique. Il relie l'approvisionnement en électricité aux maisons et aux entreprises. Quand il y a des interruptions, ça peut causer de gros soucis pour tous ceux qui comptent sur l'électricité. Améliorer la Fiabilité de ces réseaux est essentiel pour garantir que l'approvisionnement en électricité reste stable et constant.
Une façon d'améliorer la fiabilité, c'est de reconfigurer le réseau de distribution. Ça veut dire changer le chemin que prend l'électricité dans le système pour que, si une partie tombe en panne, le courant puisse toujours arriver à tous les utilisateurs. Mais trouver la meilleure façon de reconfigurer le réseau peut être compliqué, surtout quand la demande en électricité change. Les méthodes traditionnelles pour analyser et déterminer la meilleure configuration peuvent être lentes et ne donnent pas toujours la meilleure solution.
Les avancées récentes en technologie ont mené au développement de nouvelles approches utilisant l'Apprentissage par renforcement profond (DRL). Le DRL est un type d'apprentissage machine où un agent apprend à prendre des décisions en interagissant avec un environnement, en recevant des récompenses ou des pénalités selon ses actions. Cette méthode peut aider à trouver des configurations rapides et efficaces pour les réseaux de distribution même quand les conditions changent.
L'Importance des Systèmes de Distribution Fiables
Les entreprises d'électricité cherchent à fournir une source d'énergie fiable à leurs clients tout en gardant les coûts raisonnables. Les pannes dans le système de distribution peuvent causer des interruptions de courant, ce qui est chiant pour les consommateurs. Améliorer la fiabilité peut se faire en :
- Utilisation Optimale des Ressources : Ça implique d'utiliser des technologies de réseau intelligent pour maximiser les ressources disponibles.
- Installation de Ressources de Secours : Bien que des ressources en plus puissent aider, elles sont souvent chères et inutiles. Donc, des technologies intelligentes qui se concentrent sur l'optimisation des ressources actuelles sont plus pratiques.
Parmi ces technologies intelligentes, il y a la reconfiguration du réseau de distribution (DNR). La DNR permet aux entreprises de modifier la façon dont l'électricité circule dans le réseau, garantissant que les ressources disponibles fonctionnent efficacement.
Approches Traditionnelles à la DNR
Différentes méthodes ont été utilisées pour traiter le problème de la DNR. Certaines d'entre elles incluent :
- Algorithmes Génétiques : Ils sont utilisés pour améliorer la qualité et la fiabilité de l'énergie en simulant la sélection naturelle.
- Programmation en Nombres Mixtes : Cette approche mathématique aide à minimiser les pertes d'électricité tout en tenant compte de la fiabilité.
- Algorithmes de Recherche de Voisins : Ils visent à réduire la perte d'énergie en examinant les configurations à proximité.
Bien qu'efficaces, ces méthodes traditionnelles présentent des défis. Les méthodes analytiques peuvent être limitées par la précision de leurs modèles, ce qui nécessite souvent une connaissance approfondie de l'ensemble du système. D'autre part, les méthodes basées sur des populations peuvent être lentes et nécessiter des ressources informatiques importantes, surtout à mesure que le système s'agrandit.
Le Passage aux Approches Basées sur l'Apprentissage
Avec les avancées technologiques, les approches basées sur l'apprentissage attirent l'attention pour optimiser la DNR. Ces méthodes tirent parti de l'apprentissage profond et de l'apprentissage par renforcement pour améliorer l'efficacité du processus. Elles peuvent s'adapter rapidement aux changements dans le système sans avoir besoin de refaire tous les calculs.
Par exemple, des méthodes utilisant l'apprentissage par renforcement par lots ont été développées, se concentrant sur la minimisation des coûts d'exploitation. D'autres approches ont appliqué l'apprentissage profond pour réduire à la fois les pertes d'électricité et le nombre d'actions de commutation nécessaires dans le réseau de distribution. En particulier, le DRL a été intégré pour réduire les actions de commutation tout en réalisant la DNR, prouvant être plus rapide et plus évolutif que les méthodes traditionnelles.
Cadre Proposé pour l'Amélioration de la DNR
Cet article propose un cadre basé sur le DRL qui se concentre sur l'amélioration de la fiabilité des systèmes de distribution grâce à une reconfiguration efficace du réseau. Le cadre utilise une approche d'apprentissage Q profond, où un agent apprend à trouver la configuration optimale pour le réseau.
Fonction Objectif
La fiabilité dans les systèmes de distribution peut être mesurée à l'aide de différents indices. L'un de ces indices est la puissance moyenne réduite, qui reflète la quantité d'électricité non fournie aux utilisateurs pendant les coupures. L'objectif du cadre proposé est de minimiser cette puissance moyenne réduite au fil du temps.
Contraintes
Pour garantir que le réseau de distribution fonctionne efficacement, certaines contraintes doivent être respectées :
- Contrainte de Radialité : Le réseau doit maintenir une structure radiale, c'est-à-dire que l'électricité circule dans une seule direction de la source vers les utilisateurs sans boucles.
- Contrainte de Traversée de Tous les Nœuds : Le réseau doit être configuré de manière à répondre à chaque demande d'électricité sans interruptions.
En adhérant à ces contraintes tout en cherchant une configuration optimale, le cadre améliore la fiabilité du système.
L'Apprentissage Q Profond Expliqué
L'apprentissage Q profond est un type spécial d'apprentissage par renforcement. Dans ce système, un agent apprend à prendre des décisions en fonction de l'environnement avec lequel il interagit. L'agent reçoit des récompenses pour les bonnes actions et des pénalités pour les mauvais choix. Cela aide l'agent à apprendre les meilleures stratégies au fil du temps.
Dans le contexte de la DNR, les états représentent l'état du réseau (comme quels interrupteurs sont ouverts), tandis que les actions correspondent aux changements apportés à la configuration (comme ouvrir ou fermer certaines branches). Le cadre utilise un réseau de neurones profond pour approcher les valeurs des actions et prendre des décisions basées sur des expériences passées.
Formation de l'Agent
Former l'agent DRL implique de faire tourner de nombreux épisodes, durant lesquels l'agent apprend à améliorer son processus de décision. Au départ, l'agent commence avec un ensemble de règles de base et affine progressivement sa compréhension de l'environnement par essais et erreurs.
Au fur et à mesure que l'agent interagit avec le système, il recueille des retours, ce qui l'aide à améliorer sa performance. Avec le temps, il apprend les meilleures configurations qui mènent à l'approvisionnement en électricité le plus fiable, optimisant ainsi le réseau de distribution.
Études de Cas
Pour montrer l'efficacité du cadre proposé, deux études de cas ont été réalisées en utilisant des systèmes de test de distribution de 33 et 69 nœuds.
Étude de Cas 1 : Système de Distribution de 33 Nœuds
Dans ce système de test, les agents ont été formés sur de nombreux épisodes pour trouver la meilleure configuration. Au départ, la puissance moyenne réduite était élevée, mais à mesure que les épisodes avançaient, elle a diminué régulièrement. La valeur finale atteinte était de 23,96 MWh/an, indiquant une amélioration significative de la fiabilité.
Étude de Cas 2 : Système de Distribution de 69 Nœuds
Une formation similaire a été réalisée pour ce système plus grand. Encore une fois, le processus a commencé avec une puissance moyenne réduite élevée. Après une formation intensive, le résultat final était de 28,48 MWh/an, montrant que le cadre a réussi à améliorer la fiabilité dans un environnement plus complexe.
Conclusion
Ce travail présente un cadre innovant basé sur le DRL conçu pour optimiser la configuration des réseaux de distribution afin d'améliorer la fiabilité. Grâce à la formation, le cadre apprend à minimiser efficacement la puissance moyenne réduite. Les résultats des études de cas indiquent que la méthode proposée peut améliorer avec succès la fiabilité des systèmes de distribution.
Avec les avancées continues en technologie, de telles approches basées sur l'apprentissage deviendront probablement essentielles pour les sociétés d'électricité, garantissant un approvisionnement en électricité stable et fiable pour les clients.
Titre: Deep Q-Learning-based Distribution Network Reconfiguration for Reliability Improvement
Résumé: Distribution network reconfiguration (DNR) has proved to be an economical and effective way to improve the reliability of distribution systems. As optimal network configuration depends on system operating states (e.g., loads at each node), existing analytical and population-based approaches need to repeat the entire analysis and computation to find the optimal network configuration with a change in system operating states. Contrary to this, if properly trained, deep reinforcement learning (DRL)-based DNR can determine optimal or near-optimal configuration quickly even with changes in system states. In this paper, a Deep Q Learning-based framework is proposed for the optimal DNR to improve reliability of the system. An optimization problem is formulated with an objective function that minimizes the average curtailed power. Constraints of the optimization problem are radial topology constraint and all nodes traversing constraint. The distribution network is modeled as a graph and the optimal network configuration is determined by searching for an optimal spanning tree. The optimal spanning tree is the spanning tree with the minimum value of the average curtailed power. The effectiveness of the proposed framework is demonstrated through several case studies on 33-node and 69-node distribution test systems.
Auteurs: Mukesh Gautam, Narayan Bhusal, Mohammed Benidris
Dernière mise à jour: 2023-05-01 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2305.01180
Source PDF: https://arxiv.org/pdf/2305.01180
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.