Simple Science

Ciência de ponta explicada de forma simples

# Física# Ciência dos materiais# Aprendizagem de máquinas

Otimizando Estruturas Atômicas Usando Aprendizado de Máquina

Pesquisadores combinam aprendizado de máquina e otimização bayesiana pra melhorar o arranjo da estrutura atômica.

Peder Lyngby, Casper Larsen, Karsten Wedel Jacobsen

― 5 min ler


Avanços na Otimização daAvanços na Otimização daEstrutura Atômicabusca por arranjos atômicos ideais.Novos métodos melhoram a eficiência na
Índice

Otimizar estruturas atômicas é super importante pra criar materiais com propriedades específicas. Esse processo pode ser bem complexo e demorado, especialmente quando a gente analisa uma grande variedade de arranjos possíveis, que é conhecido como a Superfície de Energia Potencial. Métodos tradicionais costumam ter dificuldades por causa dos muitos mínimos locais que podem aparecer nesses espaços de alta dimensão, o que torna difícil achar o melhor arranjo. Recentemente, inovações em aprendizado de máquina trouxeram novas maneiras de simplificar esse processo.

Nessa abordagem, os pesquisadores combinam as vantagens de Potenciais de Aprendizado de Máquina universais com um framework de Otimização Bayesiana. Usando modelos de aprendizado de máquina pré-treinados, eles conseguem estimar a energia e as forças em um material de forma mais ou menos precisa. Isso permite que o processo de otimização foque em ajustar os detalhes da superfície de energia potencial, ao invés de começar do zero.

A disposição dos átomos em um material tem um impacto significativo nas suas propriedades, que incluem resistência mecânica, condutividade elétrica, magnetismo e reatividade química. Pra encontrar o arranjo ideal em temperaturas baixas, é preciso identificar o estado de energia mais baixo, conhecido como Mínimo Global, da superfície de energia potencial. Essa tarefa é especialmente difícil pela quantidade de configurações possíveis e pela presença de muitos estados estáveis que não são os de menor energia.

Técnicas padrão de otimização, como buscas aleatórias e algoritmos evolutivos, requerem muitas cálculos de energia, especialmente quando se usa métodos como a teoria do funcional de densidade (DFT), que podem ser intensivos computacionalmente. Isso torna esses métodos pouco práticos pra sistemas maiores. O problema fica ainda mais complicado em espaços de alta dimensão cheios de mínimos locais, onde os métodos tradicionais precisam de cálculos extensivos pra explorar a superfície de energia potencial.

Avanços recentes em aprendizado de máquina mostraram um bom potencial pra reduzir essa carga computacional. Por exemplo, o algoritmo GOFEE usa processos gaussianos pra criar modelos da superfície de energia potencial. Isso permite uma exploração mais eficiente usando buscas aleatórias e otimização bayesiana. Esses métodos mostraram melhorias significativas no número de avaliações de energia necessárias.

Os pesquisadores também se concentraram em desenvolver bancos de dados que contêm um grande número de estruturas atômicas e propriedades materiais com base em estudos extensivos. Esses bancos de dados apoiam o crescimento de potenciais de aprendizado de máquina universais, que são modelos treinados nesses grandes dados. Eles conseguem prever energia e forças com bastante precisão e são bem mais rápidos que os cálculos de DFT, tornando-os ideais pra ter uma visão geral da paisagem de energia. Mas, enquanto esses modelos são bons em captar tendências gerais, às vezes eles perdem detalhes mais finos.

Pra resolver isso, os pesquisadores juntam as informações valiosas dos potenciais de aprendizado de máquina pré-treinados com o método de otimização bayesiana. Usando esses potenciais de aprendizado de máquina como ponto de partida, o processo gaussiano consegue se concentrar em entender os aspectos mais sutis da paisagem de energia potencial. Essa abordagem combinada foi testada em vários sistemas, desde materiais periódicos até superfícies e aglomerados de átomos.

Um exemplo é a versão em bloco do dióxido de silício (SiO). Aqui, os pesquisadores analisaram quão bem diferentes métodos conseguem encontrar a configuração de energia mínima global. Os resultados mostraram que o uso do potencial de aprendizado de máquina MACE-MP-0 melhorou significativamente a taxa de sucesso em comparação com uma abordagem padrão. Em contrapartida, outro potencial, o M3GNet, não mostrou uma vantagem notável.

Outro estudo envolveu um aglomerado de átomos de cobre, que pode existir em duas arrumações de baixa energia diferentes. Testes semelhantes mostraram que o uso do MACE-MP-0 deixou o algoritmo mais eficiente em encontrar essas arrumações em comparação com outros métodos, enquanto o potencial M3GNet pareceu dificultar o processo de busca.

A pesquisa também focou em uma estrutura de superfície bem conhecida feita de dióxido de titânio (TiO). Usando o potencial MACE-MP-0, os pesquisadores conseguiram identificar o mínimo global com muito menos cálculos de energia do que em estudos anteriores, indicando uma melhoria significativa no processo de otimização. Esses achados destacam como a combinação de aprendizado de máquina e otimização bayesiana pode aprimorar a busca por configurações atômicas ideais.

Por fim, o estudo considerou um material em bloco simples feito de alumínio, ferro e níquel (AlFeNi), examinando várias supercélulas maiores que complicam o desafio de otimização. Embora várias configurações desse material tornassem mais difícil encontrar o arranjo ideal, todos os métodos conseguiram identificar o mínimo global nos casos mais simples. Porém, à medida que a complexidade aumentava, o desempenho das diferentes abordagens variava.

Resumindo, essa pesquisa demonstra um novo método de otimização de estruturas atômicas ao misturar técnicas de aprendizado de máquina com otimização bayesiana. Ao aproveitar as capacidades de modelos pré-treinados, os pesquisadores conseguem navegar de maneira mais eficaz pelas complexidades das superfícies de energia potencial e aumentar as chances de encontrar os arranjos atômicos ideais. A abordagem combinada mostrou taxas de sucesso melhoradas em vários sistemas, sinalizando uma direção promissora para o design e pesquisa de materiais.

Fonte original

Título: Bayesian optimization of atomic structures with prior probabilities from universal interatomic potentials

Resumo: The optimization of atomic structures plays a pivotal role in understanding and designing materials with desired properties. However, conventional computational methods often struggle with the formidable task of navigating the vast potential energy surface, especially in high-dimensional spaces with numerous local minima. Recent advancements in machine learning-driven surrogate models offer a promising avenue for alleviating this computational burden. In this study, we propose a novel approach that combines the strengths of universal machine learning potentials with a Bayesian approach using Gaussian processes. By using the machine learning potentials as priors for the Gaussian process, the Gaussian process has to learn only the difference between the machine learning potential and the target energy surface calculated for example by density functional theory. This turns out to improve the speed by which the global optimal structure is identified across diverse systems for a well-behaved machine learning potential. The approach is tested on periodic bulk materials, surface structures, and a cluster.

Autores: Peder Lyngby, Casper Larsen, Karsten Wedel Jacobsen

Última atualização: 2024-11-18 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2408.15590

Fonte PDF: https://arxiv.org/pdf/2408.15590

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Artigos semelhantes