Ottimizzazione delle Reti di Distribuzione Elettrica con DRL
Usare il deep reinforcement learning per migliorare l'affidabilità della distribuzione dell'energia.
― 6 leggere min
Indice
La rete di distribuzione è una parte fondamentale del nostro sistema elettrico. Collega l'energia alle case e alle aziende. Quando ci sono interruzioni, può causare grossi problemi per chiunque dipenda dall'elettricità. Migliorare l'Affidabilità di queste reti è essenziale per garantire che l'energia rimanga stabile e costante.
Un modo per migliorare l'affidabilità è ripensare la rete di distribuzione. Questo significa cambiare il modo in cui l'energia scorre attraverso il sistema in modo che, quando una parte fallisce, l'energia possa comunque raggiungere tutti gli utenti. Tuttavia, trovare il modo migliore per ristrutturare la rete può essere complicato, specialmente quando la domanda di energia cambia. I metodi tradizionali utilizzati per analizzare e determinare la configurazione migliore possono essere lenti e non sempre offrono la soluzione migliore.
Recenti progressi nella tecnologia hanno portato allo sviluppo di nuovi approcci che utilizzano l'apprendimento profondo per rinforzo (DRL). Il DRL è un tipo di apprendimento automatico in cui un agente impara a prendere decisioni interagendo con un ambiente, ricevendo ricompense o penalità basate sulle sue azioni. Questo metodo può aiutare a trovare configurazioni rapide ed efficaci per le reti di distribuzione anche quando le condizioni cambiano.
L'importanza dei sistemi di distribuzione affidabili
Le aziende elettriche mirano a fornire una fonte di energia affidabile ai loro clienti mantenendo i costi ragionevoli. I fallimenti nel sistema di distribuzione possono causare interruzioni di energia, che sono scomode per i consumatori. Migliorare l'affidabilità può essere raggiunto attraverso:
- Uso ottimale delle risorse: Questo implica l'uso di tecnologie di smart grid per sfruttare al meglio le risorse disponibili.
- Installazione di risorse di backup: Anche se risorse aggiuntive possono aiutare, sono spesso costose e inefficienti. Quindi, tecnologie intelligenti che si concentrano sull'ottimizzazione delle risorse attuali sono più pratiche.
Tra queste tecnologie intelligenti c'è la ristrutturazione della rete di distribuzione (DNR). La DNR permette alle utility di regolare il flusso di energia attraverso la rete, assicurando che le risorse disponibili lavorino in modo efficiente.
Approcci tradizionali alla DNR
Sono stati utilizzati diversi metodi per affrontare il problema della DNR. Alcuni di questi includono:
- Algoritmi genetici: Questi vengono utilizzati per migliorare la qualità e l'affidabilità dell'energia simulando la selezione naturale.
- Programmazione a interi misti: Questo approccio matematico aiuta a minimizzare le perdite di energia considerando l'affidabilità.
- Algoritmi di ricerca nei vicini: Questi mirano a ridurre le perdite di energia esaminando configurazioni vicine.
Anche se efficaci, questi metodi tradizionali presentano delle sfide. I metodi analitici possono essere limitati dall'accuratezza dei loro modelli, che spesso richiedono una profonda conoscenza dell'intero sistema. D'altra parte, i metodi basati sulla popolazione possono essere lenti e richiedere risorse computazionali significative, soprattutto man mano che le dimensioni del sistema aumentano.
Il cambiamento verso approcci basati sull'apprendimento
Con l'avanzare della tecnologia, gli approcci basati sull'apprendimento stanno guadagnando attenzione per ottimizzare la DNR. Questi metodi sfruttano l'apprendimento profondo e l'apprendimento per rinforzo per migliorare l'efficienza del processo. Possono adattarsi rapidamente ai cambiamenti nel sistema senza dover rifare tutti i calcoli.
Ad esempio, sono stati sviluppati metodi che utilizzano l'apprendimento per rinforzo a batch, concentrandosi sulla minimizzazione dei costi operativi. Altri approcci hanno applicato l'apprendimento profondo per minimizzare sia le perdite di energia che il numero di azioni di commutazione necessarie nella rete di distribuzione. Il DRL, in particolare, è stato integrato per ridurre le azioni di commutazione durante la DNR, dimostrandosi più veloce e scalabile rispetto ai metodi tradizionali.
Quadro proposto per il miglioramento della DNR
Questo lavoro presenta un quadro basato sul DRL che si concentra sul miglioramento dell'affidabilità dei sistemi di distribuzione attraverso una ristrutturazione efficace della rete. Il quadro impiega un approccio di deep Q-learning, in cui un agente impara a trovare la configurazione ottimale per la rete.
Funzione obiettivo
L'affidabilità nei sistemi di distribuzione può essere misurata utilizzando diversi indici. Uno di questi indici è il potere medio limitato, che riflette la quantità di energia non fornita agli utenti durante le interruzioni. L'obiettivo del quadro proposto è minimizzare questo potere medio limitato nel tempo.
Vincoli
Per garantire che la rete di distribuzione operi in modo efficace, devono essere rispettati determinati vincoli:
- Vincolo di radialità: La rete deve mantenere una struttura radiale, il che significa che l'energia fluisce in una direzione dalla fonte agli utenti senza anelli.
- Vincolo di attraversamento di tutti i nodi: La rete deve essere configurata in modo tale che ogni domanda di energia venga soddisfatta senza interruzioni.
Seguendo questi vincoli mentre si cerca una configurazione ottimale, il quadro migliora l'affidabilità del sistema.
Deep Q Learning spiegato
Il Deep Q Learning è un tipo speciale di apprendimento per rinforzo. In questo sistema, un agente impara a prendere decisioni in base all'ambiente con cui interagisce. L'agente riceve ricompense per azioni giuste e penalità per scelte sbagliate. Questo aiuta l'agente a imparare le migliori strategie nel tempo.
Nel contesto della DNR, gli stati rappresentano lo stato della rete (come quali interruttori sono aperti), mentre le azioni corrispondono ai cambiamenti apportati alla configurazione (come aprire o chiudere certi rami). Il quadro utilizza una rete neurale profonda per approssimare i valori delle azioni e prendere decisioni basate su esperienze passate.
Addestramento dell'agente
Addestrare l'agente DRL implica eseguire numerosi episodi, durante i quali l'agente impara a migliorare il suo processo decisionale. All'inizio, l'agente parte con un insieme base di regole e affina gradualmente la sua comprensione dell'ambiente attraverso tentativi ed errori.
Man mano che l'agente interagisce con il sistema, raccoglie feedback, che lo aiuta a migliorare le sue prestazioni. Nel tempo, impara le migliori configurazioni che portano alla fornitura di energia più affidabile, ottimizzando così la rete di distribuzione.
Casi studio
Per dimostrare l'efficacia del quadro proposto, sono stati eseguiti due casi studio utilizzando sistemi di prova di distribuzione a 33 e 69 nodi.
Caso studio 1: Sistema di distribuzione a 33 nodi
In questo sistema di prova, gli agenti sono stati addestrati per molti episodi per trovare la configurazione migliore. All'inizio, il potere medio limitato era alto, ma man mano che gli episodi progredivano, è diminuito costantemente. Il valore finale raggiunto è stato di 23,96 MWh/anno, indicando un'importante miglioramento dell'affidabilità.
Caso studio 2: Sistema di distribuzione a 69 nodi
Un addestramento simile è stato condotto per questo sistema più grande. Ancora una volta, il processo è iniziato con un alto potere medio limitato. Dopo un addestramento intenso, il risultato finale è stato di 28,48 MWh/anno, mostrando che il quadro ha migliorato con successo l'affidabilità in un ambiente più complesso.
Conclusione
Questo lavoro presenta un innovativo quadro basato su DRL progettato per ottimizzare la configurazione delle reti di distribuzione per migliorare l'affidabilità. Attraverso l'addestramento, il quadro impara a minimizzare efficacemente il potere medio limitato. I risultati dei casi studio indicano che il metodo proposto può migliorare con successo l'affidabilità dei sistemi di distribuzione.
Con i continui progressi nella tecnologia, questi approcci basati sull'apprendimento diventeranno probabilmente essenziali per le aziende elettriche, assicurando una fornitura di energia stabile e affidabile per i clienti.
Titolo: Deep Q-Learning-based Distribution Network Reconfiguration for Reliability Improvement
Estratto: Distribution network reconfiguration (DNR) has proved to be an economical and effective way to improve the reliability of distribution systems. As optimal network configuration depends on system operating states (e.g., loads at each node), existing analytical and population-based approaches need to repeat the entire analysis and computation to find the optimal network configuration with a change in system operating states. Contrary to this, if properly trained, deep reinforcement learning (DRL)-based DNR can determine optimal or near-optimal configuration quickly even with changes in system states. In this paper, a Deep Q Learning-based framework is proposed for the optimal DNR to improve reliability of the system. An optimization problem is formulated with an objective function that minimizes the average curtailed power. Constraints of the optimization problem are radial topology constraint and all nodes traversing constraint. The distribution network is modeled as a graph and the optimal network configuration is determined by searching for an optimal spanning tree. The optimal spanning tree is the spanning tree with the minimum value of the average curtailed power. The effectiveness of the proposed framework is demonstrated through several case studies on 33-node and 69-node distribution test systems.
Autori: Mukesh Gautam, Narayan Bhusal, Mohammed Benidris
Ultimo aggiornamento: 2023-05-01 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2305.01180
Fonte PDF: https://arxiv.org/pdf/2305.01180
Licenza: https://creativecommons.org/licenses/by/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.