Avances en la Predicción de Defectos de Semiconductores Usando Aprendizaje Automático
El aprendizaje automático mejora las predicciones de defectos en semiconductores para un mejor rendimiento del material.
― 7 minilectura
Tabla de contenidos
- Importancia de los Defectos en Semiconductores
- Aprendizaje Automático en la Predicción de Defectos
- Desarrollo de un Gran Conjunto de Datos
- Uso de Redes Neuronales Basadas en Grafos
- Entrenamiento de los Modelos
- Aplicaciones Prácticas de los Modelos
- Acelerando la Optimización de Estructuras
- Filtrado de Defectos de Baja Energía
- Conclusión
- Fuente original
- Enlaces de referencia
Los semiconductores juegan un rol crucial en muchas tecnologías modernas, como la electrónica, la salud y la energía renovable. Son materiales que pueden conducir electricidad bajo ciertas condiciones y son esenciales para dispositivos como celdas solares, transistores y sensores. Sin embargo, su rendimiento puede verse afectado por imperfecciones conocidas como Defectos. Estos defectos pueden incluir átomos faltantes, átomos adicionales o átomos en el lugar equivocado. Entender estos defectos y predecir sus efectos es clave para desarrollar mejores materiales semiconductores.
Importancia de los Defectos en Semiconductores
Los defectos en los semiconductores pueden impactar significativamente sus propiedades. Por ejemplo, pueden crear niveles de energía dentro del material que afectan qué tan fácilmente se mueven los electrones, influyendo así en la habilidad del material para conducir electricidad. Esto puede llevar a ineficiencias en dispositivos como las celdas solares, donde los defectos pueden disminuir la cantidad de luz absorbida y reducir la energía que producen. Por otro lado, algunos defectos pueden mejorar propiedades activando ciertas características, haciéndolos esenciales para aplicaciones específicas.
Para mejorar el rendimiento de los materiales semiconductores, los investigadores necesitan predecir con precisión la formación y estabilidad de estos defectos. Esto se ha hecho tradicionalmente mediante simulaciones computacionales complejas basadas en principios de mecánica cuántica, que pueden ser costosas y llevar mucho tiempo. Afortunadamente, los avances en Aprendizaje automático están abriendo nuevos caminos para predecir los defectos en semiconductores de manera más eficiente.
Aprendizaje Automático en la Predicción de Defectos
El aprendizaje automático es una rama de la inteligencia artificial que permite a las computadoras aprender de datos y hacer predicciones. Al analizar grandes Conjuntos de datos, los modelos de aprendizaje automático pueden encontrar patrones y relaciones que no son obvios de inmediato. En el contexto de los defectos en semiconductores, el aprendizaje automático puede ayudar a acelerar las predicciones sobre cómo se comportarán los defectos en varios materiales.
Nuestro enfoque consistió en desarrollar un sistema que combina simulaciones tradicionales con aprendizaje automático. Usamos datos de simulaciones para entrenar modelos que podrían predecir las propiedades de los defectos en una amplia gama de materiales semiconductores. La idea principal era usar aprendizaje automático para hacer predicciones sobre defectos más rápido y con más precisión que los métodos convencionales.
Desarrollo de un Gran Conjunto de Datos
Para entrenar nuestros modelos de aprendizaje automático de manera efectiva, necesitábamos un gran conjunto de datos de información sobre defectos. Generamos este conjunto utilizando cálculos de primeros principios, que son simulaciones basadas en física fundamental. Esto nos permitió crear una gran cantidad de información sobre las energías asociadas con diferentes defectos en varios semiconductores.
Nos centramos en materiales de tres grupos principales: semiconductores del Grupo IV, III-V y II-VI. Estos grupos incluyen materiales muy utilizados como silicio (Si), arsenuro de galio (GaAs) y telururo de cadmio (CdTe). Nuestro conjunto de datos incluía varios tipos de defectos, como vacantes (átomos faltantes), auto-intersticiales (átomos adicionales en el cristal) y sustituciones anti-sitio (átomos en la ubicación incorrecta). Al incluir una amplia gama de defectos en muchos tipos de materiales, buscamos capturar una vista completa de cómo se comportan los defectos en los semiconductores.
Uso de Redes Neuronales Basadas en Grafos
Para nuestros modelos de aprendizaje automático, utilizamos una técnica conocida como Redes Neuronales Basadas en Grafos (GNNs). Las GNNs son un tipo de modelo de aprendizaje automático que funcionan bien con datos representados en forma de grafo. En nuestro caso, representamos las estructuras semiconductoras como grafos, donde los átomos eran nodos y los enlaces químicos eran bordes. Esto permitió que el modelo aprendiera de las relaciones entre los átomos y cómo influyen en las propiedades de los defectos.
Probamos tres técnicas diferentes de GNN en nuestra investigación: Red Neuronal Convolucional de Grafos Cristalinos (CGCNN), Red de Grafos de Materiales (MEGNET) y Red Neuronal de Grafos de Línea Atomística (ALIGNN). Cada uno de estos modelos tiene sus fortalezas, pero encontramos que ALIGNN mostró el mejor rendimiento en predecir las energías de formación de defectos.
Entrenamiento de los Modelos
Entrenamos nuestros modelos GNN usando el gran conjunto de datos de defectos que creamos. El proceso de entrenamiento consistió en alimentar los modelos con datos de entrada y ajustar sus parámetros para minimizar los errores en sus predicciones. Esta fase de entrenamiento es crítica porque permite que los modelos aprendan las relaciones entre las características estructurales de los semiconductores y la energía de los defectos.
Después del entrenamiento, validamos los modelos probándolos con datos no vistos. Este paso de validación aseguró que los modelos generalizan bien y pueden hacer predicciones precisas para defectos no incluidos en el conjunto de entrenamiento. Nuestros resultados indicaron que el modelo ALIGNN tuvo un rendimiento excepcional, alcanzando una precisión de alrededor del 98% en la predicción de energías de formación de defectos para varios tipos de defectos.
Aplicaciones Prácticas de los Modelos
Una vez entrenados, estos modelos pueden usarse para predecir rápidamente las energías de formación de defectos en nuevos materiales semiconductores. Esta capacidad es valiosa para los investigadores que buscan desarrollar nuevos materiales con menos defectos o propiedades mejoradas. Por ejemplo, al diseñar nuevos materiales para celdas solares, los investigadores pueden usar el modelo para filtrar miles de posibles defectos y identificar aquellos que podrían mejorar el rendimiento.
Además, la capacidad de predecir cómo se comportan los defectos en diferentes entornos significa que nuestros modelos pueden aplicarse en varios procesos de fabricación, asegurando que los semiconductores se produzcan con propiedades optimizadas.
Acelerando la Optimización de Estructuras
Una de las grandes ventajas de usar aprendizaje automático en la predicción de defectos es su capacidad para acelerar la optimización de estructuras cristalinas. Cuando se introduce un nuevo defecto en un Semiconductor, la estructura resultante a menudo difiere significativamente de la estructura ideal. Los métodos de optimización tradicionales pueden ser lentos, tomando miles de horas computacionales. Sin embargo, nuestros modelos GNN pueden proporcionar estimaciones rápidas de las energías de los defectos en nuevas estructuras.
Al aplicar nuestro modelo ALIGNN entrenado, demostramos un nuevo método para optimizar estructuras defectuosas. Este método implica ajustar iterativamente las posiciones de los átomos en un cristal para encontrar configuraciones que reduzcan la energía de defectos predicha. Este proceso se puede hacer mucho más rápido que los métodos tradicionales, lo que hace factible explorar rápidamente muchas estructuras potenciales diferentes.
Filtrado de Defectos de Baja Energía
Usando nuestros modelos GNN, realizamos un filtrado de alta capacidad de defectos a través de un amplio espacio químico de materiales semiconductores potenciales. Este proceso de filtrado implicó predecir las energías de formación de más de 12,000 posibles defectos. Establecimos criterios específicos para identificar defectos de baja energía que podrían ser estables bajo diferentes condiciones.
Los resultados de nuestro filtrado revelaron varios defectos que probablemente serían estables en varios materiales semiconductores. Al centrarse en defectos con bajas energías de formación, los investigadores pueden apuntar a impurezas o dopantes específicos que pueden mejorar el rendimiento de los dispositivos semiconductores.
Conclusión
En conclusión, la integración del aprendizaje automático, particularmente a través del uso de Redes Neuronales Basadas en Grafos, representa un avance significativo en el estudio de los defectos en semiconductores. Al crear un conjunto completo de datos sobre propiedades de defectos y entrenar modelos de predicción robustos, podemos entender mejor cómo se comportan los defectos en varios materiales. Esta nueva capacidad permite a los investigadores acelerar el descubrimiento y la optimización de materiales semiconductores de próxima generación con un mejor rendimiento.
De cara al futuro, planeamos refinar aún más nuestros modelos y expandir su uso en diferentes tipos de materiales semiconductores. Además, explorar enfoques alternativos de aprendizaje automático podría proporcionar herramientas aún más poderosas para predecir y optimizar defectos en la tecnología de semiconductores.
Título: Accelerating Defect Predictions in Semiconductors Using Graph Neural Networks
Resumen: Here, we develop a framework for the prediction and screening of native defects and functional impurities in a chemical space of Group IV, III-V, and II-VI zinc blende (ZB) semiconductors, powered by crystal Graph-based Neural Networks (GNNs) trained on high-throughput density functional theory (DFT) data. Using an innovative approach of sampling partially optimized defect configurations from DFT calculations, we generate one of the largest computational defect datasets to date, containing many types of vacancies, self-interstitials, anti-site substitutions, impurity interstitials and substitutions, as well as some defect complexes. We applied three types of established GNN techniques, namely Crystal Graph Convolutional Neural Network (CGCNN), Materials Graph Network (MEGNET), and Atomistic Line Graph Neural Network (ALIGNN), to rigorously train models for predicting defect formation energy (DFE) in multiple charge states and chemical potential conditions. We find that ALIGNN yields the best DFE predictions with root mean square errors around 0.3 eV, which represents a prediction accuracy of 98 % given the range of values within the dataset, improving significantly on the state-of-the-art. Models are tested for different defect types as well as for defect charge transition levels. We further show that GNN-based defective structure optimization can take us close to DFT-optimized geometries at a fraction of the cost of full DFT. DFT-GNN models enable prediction and screening across thousands of hypothetical defects based on both unoptimized and partially-optimized defective structures, helping identify electronically active defects in technologically-important semiconductors.
Autores: Md Habibur Rahman, Prince Gollapalli, Panayotis Manganaris, Satyesh Kumar Yadav, Ghanshyam Pilania, Brian DeCost, Kamal Choudhary, Arun Mannodi-Kanakkithodi
Última actualización: 2023-09-13 00:00:00
Idioma: English
Fuente URL: https://arxiv.org/abs/2309.06423
Fuente PDF: https://arxiv.org/pdf/2309.06423
Licencia: https://creativecommons.org/licenses/by/4.0/
Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.
Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.