Simple Science

La science de pointe expliquée simplement

# Physique# Science des matériaux# Apprentissage automatique

Optimisation des structures atomiques avec l'apprentissage automatique

Des chercheurs combinent l'apprentissage automatique et l'optimisation bayésienne pour améliorer l'arrangement des structures atomiques.

Peder Lyngby, Casper Larsen, Karsten Wedel Jacobsen

― 5 min lire


Avancées dansAvancées dansl'optimisation de lastructure atomiquearrangements atomiques optimaux.l'efficacité pour trouver lesDe nouvelles méthodes améliorent
Table des matières

Optimiser les structures atomiques est super important pour créer des matériaux avec des propriétés spécifiques. Ce processus peut être complexe et long, surtout quand on examine un grand nombre d'arrangements possibles, appelés la Surface d'énergie potentielle. Les méthodes traditionnelles galèrent souvent à cause des nombreux minima locaux qui peuvent apparaître dans ces espaces de haute dimension, rendant la recherche du meilleur arrangement assez difficile. Récemment, des avancées en apprentissage automatique ont introduit de nouvelles façons de simplifier ce processus.

Dans cette approche, les chercheurs mélangent les avantages des potentiels d'apprentissage automatique universels avec un cadre d'Optimisation bayésienne. En utilisant des modèles d'apprentissage automatique pré-entraînés, ils peuvent donner une estimation brute de l'énergie et des forces dans un matériau. Cela permet au processus d'optimisation de se concentrer sur le perfectionnement des détails de la surface d'énergie potentielle, au lieu de partir de zéro.

L'arrangement des atomes dans un matériau a un impact énorme sur ses propriétés, comme la résistance mécanique, la conductivité électrique, le magnétisme et la réactivité chimique. Pour trouver l'arrangement optimal à basse température, il faut identifier l'état d'énergie le plus bas, connu sous le nom de minimum global, de la surface d'énergie potentielle. Cette tâche est particulièrement ardue à cause du nombre colossal de configurations possibles et de la présence de nombreux états stables qui ne sont pas les plus bas en énergie.

Les techniques d'optimisation standard, comme les recherches aléatoires et les algorithmes évolutifs, nécessitent beaucoup de calculs d'énergie, surtout quand on utilise des méthodes comme la théorie de la fonctionnelle de la densité (DFT), qui peut être très gourmande en calculs. Cela les rend impraticables pour des systèmes plus grands. Le problème devient encore plus compliqué dans des espaces de haute dimension remplis de minima locaux, où les méthodes traditionnelles ont besoin de calculs extensifs pour explorer la surface d'énergie potentielle.

Les récentes avancées en apprentissage automatique montrent des promesses pour réduire cette charge de calcul. Par exemple, l'algorithme GOFEE utilise des processus gaussiens pour créer des modèles de la surface d'énergie potentielle. Cela permet une exploration plus efficace avec des recherches aléatoires et l'optimisation bayésienne. Ces méthodes ont montré des améliorations significatives dans le nombre d'évaluations d'énergie nécessaires.

Les chercheurs se sont également concentrés sur le développement de bases de données contenant un grand nombre de structures atomiques et de propriétés de matériaux basées sur des études approfondies. Ces bases de données soutiennent la croissance des potentiels d'apprentissage automatique universels, qui sont des modèles entraînés sur ces grandes données. Ils peuvent prédire l'énergie et les forces avec pas mal de précision et sont bien plus rapides que les calculs DFT, ce qui les rend idéaux pour avoir un aperçu du paysage énergétique. Cependant, bien que ces modèles excellent à capturer les tendances générales, ils ratent parfois des détails plus fins.

Pour y remédier, les chercheurs mélangent les informations précieuses des potentiels d'apprentissage automatique pré-entraînés avec la méthode d'optimisation bayésienne. En utilisant ces potentiels d'apprentissage automatique comme point de départ, le processus gaussien peut se concentrer sur la compréhension des aspects plus fins du paysage énergétique potentiel. Cette approche combinée a été testée sur divers systèmes, des matériaux périodiques aux surfaces et grappes d'atomes.

Un exemple est la version bulk du dioxyde de silicium (SiO). Ici, les chercheurs ont examiné à quel point différentes méthodes pouvaient trouver la configuration d'énergie minimale globale. Leurs résultats ont montré qu'utiliser le potentiel d'apprentissage automatique MACE-MP-0 améliorait significativement le taux de réussite par rapport à une approche standard. En revanche, un autre potentiel, M3GNet, ne semblait pas offrir d'avantage notable.

Une autre étude a impliqué une grappe d'atomes de cuivre, qui peuvent exister dans deux arrangements à faible énergie différents. Des essais similaires ont montré qu'utiliser MACE-MP-0 rendait l'algorithme plus efficace pour trouver ces arrangements par rapport à d'autres méthodes, tandis que le potentiel M3GNet semblait freiner le processus de recherche.

La recherche a aussi ciblé une structure de surface bien connue faite de dioxyde de titane (TiO). En utilisant le potentiel MACE-MP-0, les chercheurs ont réussi à identifier le minimum global avec beaucoup moins de calculs d'énergie que dans les études précédentes, indiquant une amélioration significative dans le processus d'optimisation. Ces résultats soulignent comment la combinaison de l'apprentissage automatique et de l'optimisation bayésienne peut améliorer la recherche des configurations atomiques optimales.

Enfin, l'étude a considéré un matériau bulk simple composé d'aluminium, de fer et de nickel (AlFeNi), examinant plusieurs supercellules plus grandes qui compliquent le défi d'optimisation. Bien que plusieurs configurations de ce matériau rendaient la recherche de l'arrangement optimal plus difficile, toutes les méthodes ont réussi à identifier le minimum global dans les cas les plus simples. Cependant, à mesure que la complexité augmentait, la performance des différentes approches variait.

En résumé, cette recherche démontre une nouvelle méthode d'optimisation des structures atomiques en mélangeant des techniques d'apprentissage automatique avec l'optimisation bayésienne. En tirant parti des capacités des modèles pré-entraînés, les chercheurs peuvent naviguer plus efficacement dans les complexités des surfaces d'énergie potentielle et augmenter les chances de trouver les arrangements atomiques optimaux. L'approche combinée a montré des taux de succès améliorés à travers divers systèmes, signalant une direction prometteuse pour la conception et la recherche de matériaux.

Source originale

Titre: Bayesian optimization of atomic structures with prior probabilities from universal interatomic potentials

Résumé: The optimization of atomic structures plays a pivotal role in understanding and designing materials with desired properties. However, conventional computational methods often struggle with the formidable task of navigating the vast potential energy surface, especially in high-dimensional spaces with numerous local minima. Recent advancements in machine learning-driven surrogate models offer a promising avenue for alleviating this computational burden. In this study, we propose a novel approach that combines the strengths of universal machine learning potentials with a Bayesian approach using Gaussian processes. By using the machine learning potentials as priors for the Gaussian process, the Gaussian process has to learn only the difference between the machine learning potential and the target energy surface calculated for example by density functional theory. This turns out to improve the speed by which the global optimal structure is identified across diverse systems for a well-behaved machine learning potential. The approach is tested on periodic bulk materials, surface structures, and a cluster.

Auteurs: Peder Lyngby, Casper Larsen, Karsten Wedel Jacobsen

Dernière mise à jour: 2024-11-18 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2408.15590

Source PDF: https://arxiv.org/pdf/2408.15590

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Articles similaires