Simple Science

Scienza all'avanguardia spiegata semplicemente

# Matematica# Ottimizzazione e controllo

Ottimizzare la Manutenzione per gli Assets Industriali Usando l'AI

Questo studio migliora la programmazione della manutenzione usando il deep reinforcement learning per macchine industriali.

― 6 leggere min


Ottimizzazione dellaOttimizzazione dellaManutenzione Guidatadall'IAindustriale.l'efficienza della manutenzioneSfruttare l'IA per migliorare
Indice

Le attrezzature industriali come le turbine eoliche e i dispositivi di imaging medico necessitano di manutenzione regolare per evitare costosi fermi. Quando queste macchine si guastano, possono portare a perdite significative. Le aziende cercano modi per eseguire la manutenzione prima che si verifichino guasti. Tuttavia, prevedere quando una macchina si guasterà è difficile. Anche con strumenti di monitoraggio in tempo reale, sapere quando intervenire non è semplice. Inoltre, le risorse per riparare le macchine su un'ampia area sono spesso limitate, rendendo complicata la gestione della manutenzione.

Questo lavoro si concentra su un problema specifico: il Problema Dinamico di Viaggio Multi-Manutentore con Allerta. In questo problema, gli ingegneri di manutenzione devono viaggiare verso diverse macchine che potrebbero degradarsi nel tempo. Man mano che le macchine iniziano a degradarsi, vengono inviate allerta a un decisore centrale, che poi programma la manutenzione. L'obiettivo è trovare un buon modo per gestire la manutenzione e inviare gli ingegneri in modo efficiente su una rete ampia.

Manutenzione e Invio

Nelle industrie moderne, macchine come scanner medici e turbine eoliche devono essere sempre in funzione. La Manutenzione Basata sulle Condizioni (CBM) aiuta a monitorare lo stato di questi beni e decidere quando eseguire la manutenzione. Spesso si usano sensori per tenere traccia della salute delle macchine. Ad esempio, un dispositivo di imaging a risonanza magnetica può essere dotato di sensori per raccogliere dati sulle sue prestazioni. Questi dati possono segnalare la necessità di manutenzione e aiutare a inviare gli ingegneri prontamente.

Spesso, le decisioni su quando inviare gli ingegneri vengono prese in base a regole o sensazioni. Tuttavia, questo può portare a una scarsa coordinazione negli sforzi di manutenzione. È fondamentale combinare le decisioni di manutenzione e invio poiché si influenzano a vicenda in modo significativo.

Nel nostro studio, abbiamo sviluppato un modello per il Problema Dinamico di Viaggio Multi-Manutentore con Allerta. In questo modello, gli ingegneri di manutenzione viaggiano attraverso una rete di macchine dove ogni macchina ha diversi stati di degradazione. Inizialmente, una macchina è in uno stato "nuovo", ma man mano che degrada, alla fine raggiunge uno stato "guasto" in cui non può operare. Quando una macchina degrada, vengono inviate allerta al decisore. Il decisore deve quindi programmare la manutenzione e inviare gli ingegneri a occuparsi delle macchine.

Le soluzioni esistenti spesso usano regole semplici, ma non tengono conto della complessità delle situazioni del mondo reale. Il nostro modello cattura i vari fattori che influenzano le decisioni di manutenzione, ma risolverlo può essere computazionalmente difficile, soprattutto per problemi su larga scala.

Apprendimento per Rinforzo Profondo

Per affrontare le complessità del nostro problema, ci rivolgiamo a tecniche avanzate di apprendimento automatico, in particolare l'apprendimento per rinforzo profondo (DRL). Il DRL ha mostrato grande successo in varie applicazioni, specialmente nei giochi e in altri problemi di decisione sequenziale. Tuttavia, la sua applicazione in contesti industriali, in particolare nella programmazione della manutenzione, presenta le sue sfide.

Addestrare modelli DRL può richiedere molto tempo, specialmente quando si cerca di risolvere problemi grandi. Ad esempio, esperimenti precedenti hanno dimostrato che i tempi di addestramento possono superare le 12 ore solo per gestire istanze con pochi beni. Il nostro problema coinvolge più ingegneri che lavorano simultaneamente su molte macchine, il che aggiunge complessità e difficoltà.

Per migliorare l'efficienza, introduciamo un metodo chiamato iterazione di policy approssimativa (API). Questo approccio utilizza soluzioni esistenti come punto di partenza per il processo di addestramento, il che aiuta a ridurre significativamente il tempo di addestramento. Ci concentriamo anche sul modo in cui vengono selezionate le azioni nel nostro modello, il che consente una migliore cooperazione tra gli ingegneri.

Politiche euristiche

Sviluppiamo anche politiche euristiche per aiutare a guidare il processo decisionale. Queste euristiche operano sulla base di regole stabilite che danno priorità alle macchine che necessitano di manutenzione e a quando. L'idea è di creare una classifica delle macchine in base ai livelli di degrado e poi inviare gli ingegneri di conseguenza.

Esploriamo due sotto-classi del nostro problema: l'istanza di manutentore singolo e l'istanza di riposizionamento degli invii. Nel caso del manutentore singolo, c'è solo un ingegnere che si occupa di più macchine, mentre nel caso del riposizionamento degli invii, più ingegneri lavorano insieme.

Esperimenti Numerici

Abbiamo condotto esperimenti numerici approfonditi per testare i nostri approcci proposti. Abbiamo impostato vari scenari con combinazioni diverse di beni e costi per valutare quanto bene funzionano i nostri metodi. I modelli di degrado delle macchine e i costi associati alla manutenzione e al viaggio sono stati scelti con attenzione per rappresentare situazioni realistiche.

Il nostro focus è su due tipi principali di istanze: quelle con solo due stati (sano e guasto) e quelle con tre stati (sano, degradato, guasto). I problemi più semplici a due stati servono come esempi fondamentali, mentre i problemi a tre stati introducono situazioni di manutenzione più realistiche.

Istanze di Manutentore Singolo

In scenari con un solo manutentore, abbiamo scoperto che i nostri approcci DRL potevano generare buone politiche rapidamente. Le politiche addestrate sono riuscite a raggiungere un livello di prestazioni paragonabile a soluzioni ottimali per piccole istanze. Questo successo dimostra che il DRL può apprendere efficacemente i migliori modi per programmare la manutenzione quando è coinvolto solo un ingegnere.

Istanze di Riposizionamento degli Invi

Per i casi con più manutentori, ci siamo proposti di valutare quanto bene i nostri metodi potessero gestire la maggiore complessità. Le strategie di invio e riposizionamento hanno mostrato miglioramenti rispetto alle soluzioni euristiche di base. I risultati hanno indicato che le politiche addestrate erano più efficienti in termini di costi nella gestione della manutenzione e dei viaggi rispetto a regole più semplici.

Istanze di Manutenzione Preventiva

Abbiamo anche affrontato scenari di manutenzione preventiva in cui le macchine devono rimanere operative. I modelli addestrati hanno imparato a dare priorità agli sforzi preventivi e a indirizzare efficientemente gli ingegneri verso le località necessarie. Questa dimensione aggiuntiva di complessità sottolinea ulteriormente la flessibilità e l'adattabilità delle politiche generate attraverso il DRL.

Robustezza delle Politiche

Una scoperta interessante è stata la robustezza delle politiche addestrate ai cambiamenti nella rete. Quando abbiamo rimosso un bene o un ingegnere, i modelli addestrati hanno comunque mostrato buone prestazioni. Questo suggerisce che l'approccio DRL è capace di adattarsi a variazioni nell'ambiente operativo senza un completo ri-addestramento.

Conclusione

In sintesi, questo studio offre nuove intuizioni sul Problema Dinamico di Viaggio Multi-Manutentore con Allerta per beni industriali. Abbiamo dimostrato il valore di integrare le decisioni di manutenzione e invio attraverso un modello che riflette le sfide operative realistiche. Il nostro utilizzo dell'apprendimento per rinforzo profondo, in particolare con l'iterazione di policy approssimativa, ottimizza efficacemente le strategie di manutenzione attraverso reti complesse.

I risultati degli esperimenti numerici confermano che i nostri metodi possono produrre politiche robuste ed economicamente vantaggiose, evidenziando il potenziale per applicazioni pratiche in vari contesti industriali. I lavori futuri potrebbero basarsi su queste scoperte integrando ulteriori vincoli ed esplorando diversi scenari per affinare e migliorare ulteriormente le soluzioni proposte.

Con questo sforzo, miriamo a migliorare come viene gestita la manutenzione in contesti reali, riducendo infine i fermi e migliorando l'affidabilità di importanti beni industriali.

Fonte originale

Titolo: Scalable Policies for the Dynamic Traveling Multi-Maintainer Problem with Alerts

Estratto: Downtime of industrial assets such as wind turbines and medical imaging devices is costly. To avoid such downtime costs, companies seek to initiate maintenance just before failure, which is challenging because: (i) Asset failures are notoriously difficult to predict, even in the presence of real-time monitoring devices which signal degradation; and (ii) Limited resources are available to serve a network of geographically dispersed assets. In this work, we study the dynamic traveling multi-maintainer problem with alerts ($K$-DTMPA) under perfect condition information with the objective to devise scalable solution approaches to maintain large networks with $K$ maintenance engineers. Since such large-scale $K$-DTMPA instances are computationally intractable, we propose an iterative deep reinforcement learning (DRL) algorithm optimizing long-term discounted maintenance costs. The efficiency of the DRL approach is vastly improved by a reformulation of the action space (which relies on the Markov structure of the underlying problem) and by choosing a smart, suitable initial solution. The initial solution is created by extending existing heuristics with a dispatching mechanism. These extensions further serve as compelling benchmarks for tailored instances. We demonstrate through extensive numerical experiments that DRL can solve single maintainer instances up to optimality, regardless of the chosen initial solution. Experiments with hospital networks containing up to $35$ assets show that the proposed DRL algorithm is scalable. Lastly, the trained policies are shown to be robust against network modifications such as removing an asset or an engineer or yield a suitable initial solution for the DRL approach.

Autori: Peter Verleijsdonk, Willem van Jaarsveld, Stella Kapodistria

Ultimo aggiornamento: 2024-01-09 00:00:00

Lingua: English

URL di origine: https://arxiv.org/abs/2401.04574

Fonte PDF: https://arxiv.org/pdf/2401.04574

Licenza: https://creativecommons.org/licenses/by/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Altro dagli autori

Articoli simili