Simple Science

Scienza all'avanguardia spiegata semplicemente

# Ingegneria elettrica e scienze dei sistemi# Sistemi e controllo# Sistemi e controllo

Ottimizzare le Risorse Energetiche Distribuite per la Regolazione della Frequenza

Un nuovo metodo sfrutta il deep reinforcement learning per migliorare la regolazione della frequenza con le DER.

― 5 leggere min


Ottimizzare i DER per laOttimizzare i DER per lastabilità della retegestione delle riserve.frequenza con tecniche avanzate diMigliorare la regolazione della
Indice

L'integrazione delle Risorse Energetiche Distribuite (DER), come i pannelli solari e le turbine eoliche, è cresciuta rapidamente negli ultimi anni. Queste tecnologie offrono molti vantaggi per la rete elettrica, ma portano anche delle sfide, soprattutto quando si tratta di mantenere una frequenza stabile. I problemi di frequenza possono verificarsi quando c'è uno squilibrio tra la produzione di elettricità e la domanda, il che può succedere per vari motivi, comprese le variazioni improvvise nell'uso dell'energia o guasti nel sistema.

La Regolazione della frequenza è fondamentale per i sistemi elettrici e di solito è divisa in tre tipi: primaria, secondaria e terziaria. La regolazione della frequenza terziaria è particolarmente importante sia nei sistemi regolati che in quelli deregolati. Nei sistemi regolati, gli operatori utility impostano le uscite dei generatori in base a un piano per minimizzare i costi. Nei sistemi deregolati, l'attenzione è rivolta all'ottimizzazione del benessere complessivo attraverso una corretta gestione delle riserve.

Questo articolo parla di un metodo per utilizzare tecnologie avanzate per ottimizzare la gestione delle riserve tra i DER per aiutare nella regolazione della frequenza terziaria.

Sfide nella Regolazione della Frequenza

Bilanciare efficacemente produzione e carico è essenziale per il funzionamento fluido della rete elettrica. Quando produzione e carico non sono sincronizzati, si verificano deviazioni di frequenza, che possono portare a problemi di qualità dell'energia e addirittura blackout. Le sfide diventano più evidenti con l'aumento dei DER, poiché i loro contributi alla regolazione della frequenza sono spesso limitati se considerati singolarmente.

Tuttavia, quando più DER collaborano, il loro effetto combinato può migliorare significativamente la gestione della frequenza. La chiave è sviluppare una strategia flessibile per coordinare le riserve che questi DER possono fornire.

La Necessità di Ottimizzazione

Ottimizzare le riserve dei DER non è un compito semplice. Richiede un approccio accurato che considera più fattori, inclusi i costi delle riserve, le perdite di energia nella rete di distribuzione e i livelli di tensione. Un metodo efficace deve essere efficiente, flessibile e capace di adattarsi ai cambiamenti in tempo reale.

I metodi tradizionali hanno registrato alcuni successi nell'ottimizzare le riserve nei sistemi di trasmissione. Tuttavia, questi metodi spesso non funzionano adeguatamente nei sistemi di distribuzione attiva. Questo articolo presenta un nuovo approccio che sfrutta l'apprendimento per rinforzo profondo (DRL) per affrontare questa sfida.

Panoramica sull'Apprendimento per Rinforzo Profondo

L'apprendimento per rinforzo (RL) è un tipo di apprendimento automatico in cui un agente impara a prendere decisioni interagendo con un ambiente. L'agente riceve feedback sotto forma di ricompense o penalizzazioni in base alle sue azioni. Questo processo di apprendimento permette all'agente di affinare la propria strategia nel tempo.

In questo caso, il framework DRL utilizza un algoritmo specifico noto come deep deterministic policy gradient (DDPG). Questo metodo combina i principi sia dei metodi tradizionali di gradienti delle politiche che dell'apprendimento profondo. Utilizzando reti neurali, DDPG può gestire efficacemente spazi di stato e azione continui.

Come Funziona il Framework

Il framework proposto si concentra sull'ottimizzazione delle riserve tra i DER per assistere nella regolazione terziaria della frequenza. Utilizza una combinazione di input per determinare le migliori azioni da intraprendere, che includono le riserve disponibili di ciascun DER e le riserve totali richieste dall'operatore del sistema. Gli obiettivi principali del framework sono minimizzare il costo totale delle riserve, ridurre le perdite di energia nella rete e mantenere i livelli di tensione entro limiti accettabili.

L'agente DRL opera attraverso un processo di addestramento che coinvolge diversi episodi. Durante questi episodi, l'agente esplora varie azioni e impara quali producono i risultati migliori in base al feedback che riceve. L'uso del replay dell'esperienza aiuta a rafforzare l'apprendimento permettendo all'agente di ricordare esperienze passate e applicarle a nuove situazioni.

Studi di Caso e Risultati

Per valutare l'efficacia del framework proposto, sono stati condotti studi di caso utilizzando una versione modificata del sistema di test di distribuzione IEEE a 34 nodi. Questo sistema serve come modello rappresentativo di una rete di distribuzione reale.

Durante la fase di addestramento, il framework ha operato per un totale di 1500 episodi. Inizialmente, le ricompense totali erano basse ma sono aumentate significativamente dopo circa 1000 episodi, indicando che l'agente stava imparando a prendere decisioni migliori nel tempo.

Sono stati progettati due casi di test per valutare le prestazioni del framework in diverse condizioni. In entrambi i casi, i risultati hanno mostrato che il metodo DRL proposto ha superato gli approcci tradizionali basati sulla capacità. Il confronto ha messo in evidenza i vantaggi dell'approccio basato sull'apprendimento nell'allocare efficacemente le riserve, riducendo al contempo i costi e le perdite di energia.

Conclusione

Il framework basato su DRL proposto offre una soluzione promettente per ottimizzare l'uso delle risorse energetiche distribuite nei sistemi di distribuzione attivi. Coordinando efficacemente le riserve disponibili dai vari DER, il framework mira a supportare la regolazione terziaria della frequenza e migliorare la stabilità complessiva della rete.

I risultati degli studi di caso dimostrano la capacità del framework di minimizzare i costi, ridurre le perdite di energia e mantenere livelli di tensione accettabili. Con il mondo che continua a passare a fonti di energia più pulite e decentralizzate, soluzioni innovative come queste saranno necessarie per gestire le complessità dei moderni sistemi elettrici.

Questo lavoro non solo supporta l'integrazione delle energie rinnovabili, ma garantisce anche che la rete elettrica funzioni in modo affidabile ed efficiente. Con l'evoluzione della tecnologia, il potenziale per ulteriori miglioramenti nelle pratiche di gestione della rete si espanderà, aprendo la strada a un futuro energetico più sostenibile.

Fonte originale

Titolo: A Deep Reinforcement Learning-based Reserve Optimization in Active Distribution Systems for Tertiary Frequency Regulation

Estratto: Federal Energy Regulatory Commission (FERC) Orders 841 and 2222 have recommended that distributed energy resources (DERs) should participate in energy and reserve markets; therefore, a mechanism needs to be developed to facilitate DERs' participation at the distribution level. Although the available reserve from a single distribution system may not be sufficient for tertiary frequency regulation, stacked and coordinated contributions from several distribution systems can enable them participate in tertiary frequency regulation at scale. This paper proposes a deep reinforcement learning (DRL)-based approach for optimization of requested aggregated reserves by system operators among the clusters of DERs. The co-optimization of cost of reserve, distribution network loss, and voltage regulation of the feeders are considered while optimizing the reserves among participating DERs. The proposed framework adopts deep deterministic policy gradient (DDPG), which is an algorithm based on an actor-critic method. The effectiveness of the proposed method for allocating reserves among DERs is demonstrated through case studies on a modified IEEE 34-node distribution system.

Autori: Mukesh Gautam, Rakib Hossain, Mohammad MansourLakouraj, Narayan Bhusal, Mohammed Benidris, Hanif Livani

Ultimo aggiornamento: 2023-05-06 00:00:00

Lingua: English

URL di origine: https://arxiv.org/abs/2305.04163

Fonte PDF: https://arxiv.org/pdf/2305.04163

Licenza: https://creativecommons.org/licenses/by/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Articoli simili