Automação na Coleta de Primeiro Impacto para Dados Sísmicos
Estudo revela os benefícios do deep learning na análise sísmica.
― 7 min ler
A detecção de primeira quebra é uma etapa importante na análise de dados sísmicos. Ela ajuda a identificar a primeira chegada das ondas sísmicas, o que pode fornecer informações valiosas sobre o subsolo da Terra. Mas, fazer isso manualmente pode ser demorado e subjetivo, levando a resultados diferentes dependendo da experiência e habilidade do operador. Com o avanço da tecnologia sísmica, a quantidade de dados coletados só cresce, tornando soluções automatizadas essenciais para acompanhar a demanda de processamento.
A Necessidade de Automação
Tradicionalmente, a escolha das primeiras quebras envolve um especialista treinado analisando dados sísmicos à mão. Esse processo pode consumir muito tempo, representando até trinta por cento do tempo total de processamento. Além disso, como essa tarefa depende da interpretação humana, diferentes especialistas podem chegar a conclusões distintas. Para resolver esses desafios, pesquisadores introduziram vários métodos para automatizar o processo de escolha das primeiras quebras. Em geral, esses métodos podem ser divididos em três tipos principais: métodos baseados em Correlação cruzada, métodos baseados em razões de energia e métodos que usam redes neurais.
Métodos Atuais de Detecção de Primeira Quebra
Métodos Baseados em Correlação Cruzada: Essa técnica analisa traços adjacentes para encontrar semelhanças e determinar quando a primeira quebra ocorre. Embora seja eficaz, enfrenta dificuldades com dados que têm lacunas ou traços mortos.
Métodos Baseados em Energia: Uma abordagem popular é o método de média de curto prazo sobre média de longo prazo (STA-LTA). Ele analisa a energia do sinal em diferentes janelas de tempo. Contudo, sua precisão tende a cair em ambientes barulhentos.
Métodos Baseados em Redes Neurais: Com os avanços na tecnologia, redes neurais, especialmente redes neurais convolucionais (CNNs), começaram a mostrar promessas. Essas redes são treinadas para identificar padrões em dados sísmicos, facilitando uma detecção mais precisa das primeiras quebras. No entanto, criar um conjunto de treinamento eficaz para essas redes pode ser desafiador e demorado.
O Papel do Deep Learning
Técnicas de deep learning, particularmente a Arquitetura U-Net, têm sido usadas para abordar o problema de detecção de primeira quebra. Ao tratar a tarefa como um problema de segmentação, os pesquisadores podem projetar sistemas para diferenciar áreas com e sem primeiras quebras. A U-Net, com sua capacidade de analisar dados espaciais, é uma opção forte para isso.
Melhorando a Eficiência do Treinamento
A eficácia dos métodos de deep learning depende muito do tamanho e qualidade do conjunto de dados de treinamento. Para melhorar a precisão enquanto reduz a quantidade de dados necessários, os pesquisadores exploraram o uso de transferência de aprendizado. Essa técnica pega um modelo que foi treinado em um conjunto de dados e o ajusta para uma nova tarefa, mas relacionada. Para fazer isso funcionar para a detecção de primeira quebra, modelos pré-treinados em grandes conjuntos de dados podem ser um ótimo ponto de partida, permitindo que os pesquisadores os ajustem com conjuntos de dados menores e mais específicos.
Fluxo de Trabalho para Detecção Automática de Primeira Quebra
No fluxo de trabalho proposto, o processo começa selecionando uma pequena porcentagem de tiros sísmicos para serem escolhidos manualmente por um especialista. Esse pequeno conjunto de treinamento pode consistir em cerca de 5-10 por cento do total de tiros. Depois que essas quebras são identificadas, a Rede Neural é ajustada com base nesses dados. Em seguida, o modelo pode ser usado para detectar automaticamente as primeiras quebras nos dados sísmicos restantes, reduzindo significativamente o tempo e esforço necessários.
Preparação de Dados
Preparar os dados para o treinamento é um passo crucial. Isso inclui cortar os tiros sísmicos para garantir uma distribuição uniforme entre os segmentos com primeiras quebras e aqueles sem. Isso ajuda a equilibrar os dados e garante que o modelo aprenda de forma eficaz. Técnicas de aumento de dados, como escalonamento e divisão dos tiros em pequenos pedaços, também podem ser usadas para criar um conjunto de dados mais diversificado para treinamento.
Arquitetura da Rede
A rede neural usada nesse fluxo de trabalho é baseada na arquitetura U-Net. Essa rede totalmente convolucional estrutura os dados através de um framework de codificador-decodificador, utilizando conexões de salto longo para reter características importantes durante o processo de treinamento. O codificador captura características de nível superior enquanto o decodificador as reconstrói em uma segmentação final.
Função de Perda e Otimização
Para treinar a rede, uma função de perda de entropia cruzada avalia quão bem as previsões da rede correspondem às localizações reais das primeiras quebras. O método de otimização Adam é aplicado para ajustar os parâmetros da rede, melhorando sua capacidade de prever as primeiras quebras com precisão.
Estratégias de Inicialização
Ao treinar uma rede neural, como o modelo é inicializado pode afetar muito o desempenho. Neste estudo, duas estratégias diferentes foram testadas: usando valores atribuídos aleatoriamente e utilizando pesos de uma rede pré-treinada. A última abordagem geralmente leva a melhores resultados, especialmente em tarefas complexas como a detecção de primeira quebra.
Experimentação com Diferentes Conjuntos de Dados
Vários experimentos foram realizados usando diferentes conjuntos de dados para avaliar o desempenho do modelo ajustado em diferentes condições. O primeiro conjunto continha dados limpos com uma alta relação sinal-ruído (SNR), enquanto o segundo incluía níveis mais altos de ruído. Os resultados mostraram que o modelo pré-treinado superava consistentemente os modelos inicializados aleatoriamente, especialmente em conjuntos de dados barulhentos.
O terceiro conjunto criou um conjunto de dados mais amplo, combinando dados de diferentes projetos. Embora essa abordagem oferecesse mais exemplos de treinamento, destacou a importância da qualidade do conjunto de dados. Combinar conjuntos de dados diversos pode levar a uma precisão reduzida se não for feito com cuidado.
Resultados da Estimativa do Modelo de Velocidade
Uma vez que as primeiras quebras foram identificadas, elas foram usadas para criar modelos de velocidade do subsolo por meio de um processo chamado inversão de tempo de viagem. A precisão desses modelos foi avaliada com base em quão de perto eles se alinhavam com modelos criados a partir de quebras identificadas manualmente. Os resultados revelaram que modelos derivados das previsões da rede pré-treinada eram mais precisos do que aqueles de redes inicializadas aleatoriamente, especialmente em ambientes geológicos complexos.
Isso mostra que métodos automatizados de detecção de primeira quebra podem levar a melhorias substanciais em economia de tempo e precisão, especialmente quando conjuntos de dados de treinamento bem preparados são utilizados.
Conclusão
Esse estudo demonstrou que usar técnicas de deep learning para a detecção automática de primeira quebra não é só prático, mas pode resultar em melhorias mensuráveis na eficiência. A combinação de transferência de aprendizado com uma estratégia de preparação de dados inteligente permite uma análise sísmica precisa enquanto minimiza a dependência de conjuntos de dados extensos.
Conforme a tecnologia por trás da coleta de dados sísmicos continua a evoluir, técnicas como as descritas aqui desempenharão um papel crítico em tornar o processamento de dados mais rápido, econômico e preciso. Automatizar o processo de detecção de primeira quebra ajuda geofísicos e outros especialistas a focar na interpretação dos resultados, em vez de se perder em análises manuais de dados.
Resumindo, integrar inteligência artificial com práticas sísmicas estabelecidas leva a inovações que podem aprimorar significativamente nosso entendimento da Terra sob nossos pés, permitindo uma melhor gestão de recursos, avaliações ambientais e explorações geológicas.
Título: A fine-tuning workflow for automatic first-break picking with deep learning
Resumo: First-break picking is an essential step in seismic data processing. First arrivals should be picked by an expert. This is a time-consuming procedure and subjective to a certain degree, leading to different results for different operators. In this study, we used a U-Net architecture with residual blocks to perform automatic first-break picking based on deep learning. Focusing on the effects of weight initialization on this process, we conduct this research by using the weights of a pretrained network that is used for object detection on the ImageNet dataset. The efficiency of the proposed method is tested on two real datasets. For both datasets, we pick manually the first breaks for less than 10% of the seismic shots. The pretrained network is fine-tuned on the picked shots and the rest of the shots are automatically picked by the neural network. It is shown that this strategy allows to reduce the size of the training set, requiring fine tuning with only a few picked shots per survey. Using random weights and more training epochs can lead to a lower training loss, but such a strategy leads to overfitting as the test error is higher than the one of the pretrained network. We also assess the possibility of using a general dataset by training a network with data from three different projects that are acquired with different equipment and at different locations. This study shows that if the general dataset is created carefully it can lead to more accurate first-break picking, otherwise the general dataset can decrease the accuracy. Focusing on near-surface geophysics, we perform traveltime tomography and compare the inverted velocity models based on different first-break picking methodologies. The results of the inversion show that the first breaks obtained by the pretrained network lead to a velocity model that is closer to the one obtained from the inversion of expert-picked first breaks.
Autores: Amir Mardan, Martin Blouin, Gabriel Fabien-Ouellet, Bernard-Giroux, Christophe Vergniault, Jeremy Gendreau
Última atualização: 2024-04-10 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2404.07400
Fonte PDF: https://arxiv.org/pdf/2404.07400
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.