Simple Science

Ciência de ponta explicada de forma simples

# Engenharia Eletrotécnica e Ciência dos Sistemas# Visão computacional e reconhecimento de padrões# Processamento de Imagem e Vídeo

Detecção de Fogo Inovadora Usando Câmeras Inteligentes e Drones

Um novo método pra detectar incêndios florestais através de câmeras inteligentes e drones.

― 7 min ler


Tecnologia InteligenteTecnologia InteligenteCombate Detecção deIncêndios Florestaisusando câmeras inteligentes baseadas emmonitoramento de incêndios florestaisAbordagem revolucionária para
Índice

Incêndios florestais são eventos naturais sérios que podem causar muito dano a pessoas, animais e ao meio ambiente. Eles podem começar por ações humanas ou causas naturais e liberam uma quantidade enorme de dióxido de carbono no ar. Isso tem efeitos sérios na saúde e no ecossistema. Para entender e gerenciar melhor os incêndios florestais, os pesquisadores têm explorado o uso de tecnologia, especialmente técnicas de visão computacional, que envolvem ensinar os computadores a entender e analisar imagens.

Uma maneira empolgante de monitorar incêndios é usando drones equipados com câmeras. Os drones conseguem chegar perto das áreas de fogo, ajudando a detectar, acompanhar e avaliar os incêndios sem colocar vidas humanas em risco. No entanto, colocar algoritmos complexos de visão computacional nos drones é um desafio. Modelos padrão de deep learning exigem muita energia e podem ser pesados demais para os drones carregarem. Como solução, estamos explorando a ideia de usar câmeras inteligentes que são baseadas em dispositivos de baixo consumo chamados FPGAS, combinadas com modelos mais simples que precisam de menos energia.

Desafios da Detecção de Incêndios Florestais

Os incêndios florestais estão entre os piores desastres naturais porque podem impactar a saúde, a vida selvagem e as comunidades locais. Vários métodos são usados para monitorar esses incêndios de longe, como sistemas em terra, aeronaves tripuladas e satélites. Cada uma dessas opções tem seus próprios desafios. Os sistemas em terra não conseguem cobrir áreas grandes, os satélites podem ter atrasos nas informações ou baixa qualidade de imagem, e as aeronaves tripuladas podem ser caras e arriscadas.

Os drones oferecem uma alternativa promissora porque são móveis e econômicos. Eles conseguem realizar longas tarefas de monitoramento enquanto são equipados com sistemas avançados de processamento de imagem. Mas, os sistemas de deep learning que ajudam a detectar incêndios ainda são limitados pelo peso e pela energia dos drones.

Modelos de Deep Learning

Nesse contexto, olhamos para redes neurais convolucionais (CNNs), que são ótimas para tarefas como identificar objetos em imagens. Esses modelos precisam de hardware poderoso como GPUs para funcionar de forma eficaz. No entanto, isso não é prático para drones que têm capacidade de peso e duração de bateria limitadas.

Estudos recentes mostraram que usar FPGAs pode ajudar a implementar esses modelos de forma mais eficiente. FPGAs são dispositivos flexíveis que podem ser personalizados para realizar tarefas específicas, tornando-os adequados para aplicações de visão computacional em drones.

Câmeras Inteligentes e Seus Benefícios

Câmeras inteligentes são sistemas compactos que conseguem capturar e processar imagens no local. Elas podem ser usadas para várias aplicações, como gerenciamento de tráfego, segurança e detecção de incêndios. A vantagem de usar FPGAs em câmeras inteligentes é sua capacidade de processar dados com baixo consumo de energia.

Entretanto, desenvolver sistemas em FPGAs exige habilidades especializadas e pode demorar mais do que usar CPUs ou GPUs tradicionais. Para enfrentar esse desafio, foram criadas ferramentas de software para simplificar o processo de treinamento e otimização desses modelos de deep learning para FPGAs.

Nossa Abordagem

Nesse estudo, implementamos um método simples e eficiente para detectar incêndios florestais usando câmeras inteligentes montadas em drones. Utilizamos um modelo U-Net modificado, que é bem adequado para tarefas de Segmentação de Imagens. A segmentação de imagens envolve dividir uma imagem em partes, ajudando a identificar as regiões de fogo com precisão.

Para tornar o modelo mais leve e rápido, aplicamos técnicas de otimização como pruning e quantização. O pruning reduz o número de partes desnecessárias do modelo, enquanto a quantização permite que o modelo trabalhe com números menores. Ao implementar essas técnicas, conseguimos rodar nosso modelo em um FPGA com melhor velocidade e menor uso de energia.

Fonte de Dados

Usamos um conjunto de dados específico conhecido como Banco de Dados de Incêndios da Córsega para treinar nosso modelo. Esse conjunto de dados consiste em pares de imagens mostrando fogo, tanto em luz visível quanto em infravermelho, junto com as seções precisas das imagens que representam o fogo. Essas informações ajudam o modelo a aprender a identificar o fogo de forma eficaz.

Implementação do Modelo

O modelo U-Net modificado é treinado com imagens do Banco de Dados de Incêndios da Córsega. Ajustamos o número de filtros nas partes mais profundas do modelo para otimizar o processamento. Após o treinamento, o modelo passa por pruning, reduzindo o número de partes em cerca de 90%. Isso diminui significativamente o tamanho do modelo.

O modelo é então quantizado, convertendo seus valores em um formato que exige menos poder computacional. Uma vez otimizado, o modelo está pronto para ser testado em um sistema FPGA.

Sistema de Câmera Inteligente

O sistema de câmera inteligente consiste em um FPGA conectado a uma câmera infravermelha. Essa configuração permite que o FPGA controle todos os processos, desde a captura de imagens até a análise delas para detecção de incêndios. O objetivo é alcançar tempos de processamento rápidos com o mínimo de consumo de energia.

Começamos executando o modelo em um modo single-threaded, onde notamos que ele estava mais lento do que o esperado. Para melhorar isso, mudamos para uma abordagem multi-threaded, que possibilitou um desempenho melhor graças às capacidades do FPGA.

Resultados

Depois de implementar o modelo no FPGA, descobrimos que ele conseguia processar imagens a uma taxa de 33,63 quadros por segundo, em comparação com apenas 8 quadros por segundo usando uma GPU tradicional. Isso significa que nossa abordagem não só é mais rápida, mas também consome muito menos energia.

Ao comparar a eficácia do nosso modelo com trabalhos anteriores, vimos que mesmo com algumas pequenas quedas de desempenho devido à otimização (cerca de 3-5%), nosso modelo ainda ofereceu uma precisão razoável na detecção de fogo.

Também fizemos comparações qualitativas inspecionando visualmente imagens segmentadas produzidas por várias versões do nosso modelo. Os resultados indicaram que nosso modelo otimizado teve desempenho semelhante ao modelo original, de precisão total, mas em uma velocidade de processamento significativamente maior.

Conclusão

Resumindo, mostramos um método para detectar incêndios florestais usando um sistema de câmera inteligente baseado em tecnologia FPGA. Nosso modelo U-Net modificado, aprimorado por pruning e quantização, realiza segmentação de fogo com uma alta taxa de quadros.

Essa pesquisa demonstra o potencial de usar técnicas de deep learning otimizadas em plataformas de hardware menores, tornando-as adequadas para aplicações em tempo real, como vigilância de incêndios florestais com drones. Trabalhos futuros podem explorar mais otimizações e o uso de modelos mais avançados para melhorar o desempenho da nossa abordagem.

Ao continuar a desenvolver tecnologia que detecta incêndios florestais de forma eficaz, podemos contribuir para melhores estratégias de preparo e resposta, protegendo, assim, vidas e o meio ambiente.

Fonte original

Título: An FPGA smart camera implementation of segmentation models for drone wildfire imagery

Resumo: Wildfires represent one of the most relevant natural disasters worldwide, due to their impact on various societal and environmental levels. Thus, a significant amount of research has been carried out to investigate and apply computer vision techniques to address this problem. One of the most promising approaches for wildfire fighting is the use of drones equipped with visible and infrared cameras for the detection, monitoring, and fire spread assessment in a remote manner but in close proximity to the affected areas. However, implementing effective computer vision algorithms on board is often prohibitive since deploying full-precision deep learning models running on GPU is not a viable option, due to their high power consumption and the limited payload a drone can handle. Thus, in this work, we posit that smart cameras, based on low-power consumption field-programmable gate arrays (FPGAs), in tandem with binarized neural networks (BNNs), represent a cost-effective alternative for implementing onboard computing on the edge. Herein we present the implementation of a segmentation model applied to the Corsican Fire Database. We optimized an existing U-Net model for such a task and ported the model to an edge device (a Xilinx Ultra96-v2 FPGA). By pruning and quantizing the original model, we reduce the number of parameters by 90%. Furthermore, additional optimizations enabled us to increase the throughput of the original model from 8 frames per second (FPS) to 33.63 FPS without loss in the segmentation performance: our model obtained 0.912 in Matthews correlation coefficient (MCC),0.915 in F1 score and 0.870 in Hafiane quality index (HAF), and comparable qualitative segmentation results when contrasted to the original full-precision model. The final model was integrated into a low-cost FPGA, which was used to implement a neural network accelerator.

Autores: Eduardo Guarduño-Martinez, Jorge Ciprian-Sanchez, Gerardo Valente, Vazquez-Garcia, Gerardo Rodriguez-Hernandez, Adriana Palacios-Rosas, Lucile Rossi-Tisson, Gilberto Ochoa-Ruiz

Última atualização: 2023-09-03 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2309.01318

Fonte PDF: https://arxiv.org/pdf/2309.01318

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes