Simple Science

Ciência de ponta explicada de forma simples

# Matemática# Otimização e Controlo

Otimizando a Manutenção de Ativos Industriais Usando IA

Esse estudo melhora o agendamento de manutenção usando aprendizado por reforço profundo para máquinas industriais.

― 7 min ler


Otimização de ManutençãoOtimização de Manutençãocom IAmanutenção industrial.Usando IA pra melhorar a eficiência da
Índice

Ativos industriais como turbinas eólicas e aparelhos de imagem médica precisam de manutenção regular pra evitar paradas caras. Quando essas máquinas falham, pode causar grandes prejuízos. As empresas buscam maneiras de realizar a manutenção logo antes que ocorram falhas. No entanto, prever quando uma máquina vai quebrar é complicado. Mesmo com ferramentas de monitoramento em tempo real, saber quando agir não é fácil. Além disso, os recursos para consertar máquinas em uma área ampla muitas vezes são limitados, o que dificulta a gestão eficaz da manutenção.

Esse trabalho foca em um problema específico: o Problema Dinâmico de Manutenção Multi-Manutenções com Alertas. Nesse problema, engenheiros de manutenção precisam viajar para diferentes máquinas que podem se degradar com o tempo. À medida que as máquinas começam a se degradar, alertas são enviados para um tomador de decisão central, que então agenda a manutenção. O objetivo é encontrar uma boa maneira de gerenciar a manutenção e despachar engenheiros por uma ampla rede de forma eficiente.

Manutenção e Despacho

Nas indústrias modernas, máquinas como scanners médicos e turbinas eólicas precisam estar operando o máximo possível. A Manutenção Baseada em Condição (CBM) ajuda a monitorar o estado desses ativos e decidir quando realizar a manutenção. Sensores são frequentemente usados pra acompanhar a saúde das máquinas. Por exemplo, um aparelho de imagem por ressonância magnética pode ser equipado com sensores pra coletar dados sobre seu desempenho. Esses dados podem sinalizar a necessidade de manutenção e ajudar a enviar engenheiros prontamente.

Muitas vezes, as decisões sobre quando despachar engenheiros são feitas com base em regras ou intuições. No entanto, isso pode levar a uma coordenação ruim nos esforços de manutenção. É essencial combinar decisões de manutenção e despacho, pois elas afetam uma à outra de forma significativa.

No nosso estudo, desenvolvemos um modelo para o Problema Dinâmico de Manutenção Multi-Manutenções com Alertas. Nesse modelo, os engenheiros de manutenção viajam por uma rede de máquinas onde cada máquina tem diferentes estados de degradação. Inicialmente, uma máquina está em estado "novo", mas à medida que se degrada, eventualmente chega a um estado "falhado" onde não pode operar. Quando uma máquina se degrada, alertas são enviados ao tomador de decisão. O tomador de decisão então tem que agendar a manutenção e enviar engenheiros pra cuidar das máquinas.

As soluções existentes geralmente usam regras simples, mas não levam em conta a complexidade das situações do mundo real. Nosso modelo captura os vários fatores que impactam as decisões de manutenção, mas resolvê-lo pode ser computacionalmente difícil, especialmente para problemas em larga escala.

Aprendizado por Reforço Profundo

Pra lidar com as complexidades do nosso problema, usamos técnicas avançadas de aprendizado de máquina, especialmente o aprendizado por reforço profundo (DRL). O DRL tem mostrado grande sucesso em várias aplicações, especialmente em jogos e outros problemas de tomada de decisão sequencial. No entanto, sua aplicação em ambientes industriais, particularmente na programação de manutenção, apresenta seus próprios desafios.

Treinar modelos de DRL pode levar muito tempo, especialmente quando tentamos resolver problemas grandes. Por exemplo, experimentos anteriores mostraram que os tempos de treinamento poderiam ultrapassar 12 horas só pra lidar com instâncias com apenas alguns ativos. Nosso problema envolve múltiplos engenheiros trabalhando simultaneamente em muitas máquinas, o que aumenta a complexidade e dificuldade.

Pra melhorar a eficiência, introduzimos um método chamado iteração de política aproximada (API). Essa abordagem usa soluções existentes como ponto de partida para o processo de treinamento, o que ajuda a reduzir significativamente o tempo de treinamento. Também focamos na forma como as ações são selecionadas em nosso modelo, que permite uma melhor cooperação entre os engenheiros.

Políticas Heurísticas

Desenvolvemos também políticas heurísticas pra ajudar a guiar o processo de tomada de decisão. Essas heurísticas operam com base em regras estabelecidas que priorizam quais máquinas precisam de manutenção e quando. A ideia é criar um ranking de máquinas com base em seus níveis de degradação e então despachar engenheiros de acordo.

Exploramos duas subclasses do nosso problema: a instância de mantenedor único e a instância de reposicionamento de despacho. No caso do mantenedor único, há apenas um engenheiro cuidando de várias máquinas, enquanto no caso do reposicionamento de despacho, vários engenheiros estão trabalhando juntos.

Experimentos Numéricos

Realizamos extensos experimentos numéricos pra testar nossas abordagens propostas. Configuramos vários cenários com diferentes combinações de ativos e custos pra avaliar quão bem nossos métodos performam. Os padrões de degradação das máquinas e os custos associados à manutenção e ao deslocamento foram cuidadosamente escolhidos pra representar situações realistas.

Nosso foco está em dois tipos principais de instâncias: aquelas com apenas dois estados (saudável e falhado) e aquelas com três estados (saudável, degradado, falhado). Os problemas mais simples de dois estados servem como exemplos básicos, enquanto os problemas de três estados introduzem situações de manutenção mais realistas.

Instâncias de Mantenedor Único

Nos cenários com um mantenedor único, descobrimos que nossas abordagens de DRL poderiam gerar boas políticas rapidamente. As políticas treinadas foram capazes de alcançar um nível de desempenho comparável às soluções ótimas para instâncias pequenas. Esse sucesso mostra que o DRL pode aprender efetivamente as melhores maneiras de agendar manutenção quando apenas um engenheiro está envolvido.

Instâncias de Reposicionamento de Despacho

Para os casos com múltiplos mantenedores, nos propusemos a avaliar quão bem nossos métodos poderiam lidar com a complexidade aumentada. As estratégias de despacho e reposicionamento mostraram melhorias em relação às soluções heurísticas básicas. Os resultados indicaram que as políticas treinadas foram mais econômicas na gestão de manutenção e deslocamento do que regras mais simples.

Instâncias de Manutenção Preventiva

Também abordamos cenários de manutenção preventiva onde as máquinas precisam ser mantidas operacionais. Os modelos treinados aprenderam a priorizar os esforços preventivos e direcionaram os engenheiros de forma eficiente para os locais necessários. Essa dimensão adicional de complexidade ressalta ainda mais a flexibilidade e adaptabilidade das políticas geradas através do DRL.

Robustez das Políticas

Uma descoberta interessante foi a robustez das políticas treinadas a mudanças na rede. Quando removemos um ativo ou engenheiro, os modelos treinados ainda performaram razoavelmente bem. Isso sugere que a abordagem do DRL é capaz de se adaptar a variações no ambiente operacional sem um retrain completo.

Conclusão

Em resumo, este estudo oferece novas perspectivas sobre o Problema Dinâmico de Manutenção Multi-Manutenções com Alertas para ativos industriais. Demonstramos o valor de integrar decisões de manutenção e despacho através de um modelo que reflete desafios operacionais realistas. Nosso uso de aprendizado por reforço profundo, particularmente com a iteração de política aproximada, otimizou efetivamente estratégias de manutenção em redes complexas.

Os resultados dos experimentos numéricos confirmam que nossos métodos podem produzir políticas robustas e econômicas, destacando o potencial para aplicações práticas em vários contextos industriais. Trabalhos futuros podem se basear nessas descobertas incorporando restrições adicionais e explorando diferentes cenários pra refinar e aprimorar ainda mais as soluções propostas.

Através desse esforço, buscamos melhorar como a manutenção é gerenciada em ambientes do mundo real, reduzindo, no fim das contas, o tempo de inatividade e aumentando a confiabilidade de ativos industriais importantes.

Fonte original

Título: Scalable Policies for the Dynamic Traveling Multi-Maintainer Problem with Alerts

Resumo: Downtime of industrial assets such as wind turbines and medical imaging devices is costly. To avoid such downtime costs, companies seek to initiate maintenance just before failure, which is challenging because: (i) Asset failures are notoriously difficult to predict, even in the presence of real-time monitoring devices which signal degradation; and (ii) Limited resources are available to serve a network of geographically dispersed assets. In this work, we study the dynamic traveling multi-maintainer problem with alerts ($K$-DTMPA) under perfect condition information with the objective to devise scalable solution approaches to maintain large networks with $K$ maintenance engineers. Since such large-scale $K$-DTMPA instances are computationally intractable, we propose an iterative deep reinforcement learning (DRL) algorithm optimizing long-term discounted maintenance costs. The efficiency of the DRL approach is vastly improved by a reformulation of the action space (which relies on the Markov structure of the underlying problem) and by choosing a smart, suitable initial solution. The initial solution is created by extending existing heuristics with a dispatching mechanism. These extensions further serve as compelling benchmarks for tailored instances. We demonstrate through extensive numerical experiments that DRL can solve single maintainer instances up to optimality, regardless of the chosen initial solution. Experiments with hospital networks containing up to $35$ assets show that the proposed DRL algorithm is scalable. Lastly, the trained policies are shown to be robust against network modifications such as removing an asset or an engineer or yield a suitable initial solution for the DRL approach.

Autores: Peter Verleijsdonk, Willem van Jaarsveld, Stella Kapodistria

Última atualização: 2024-01-09 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2401.04574

Fonte PDF: https://arxiv.org/pdf/2401.04574

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes