Simple Science

Ciencia de vanguardia explicada de forma sencilla

# Física# Física de altas energías - Fenomenología

Buscando Neutrinos Pesados en el LHC

Los investigadores usan aprendizaje automático para identificar neutrinos pesados en colisiones de partículas.

― 7 minilectura


Neutrinos PesadosNeutrinos PesadosDescubiertoscolisiones de partículas.buscar neutrinos pesados elusivos enEl aprendizaje automático ayuda a
Tabla de contenidos

Los científicos están tratando de encontrar Neutrinos Pesados, que son partículas que podrían responder algunas preguntas grandes en física. Estos neutrinos podrían ayudar a explicar por qué otros neutrinos tienen masas tan pequeñas. Su existencia podría señalar física nueva más allá de lo que sabemos hasta ahora.

El Gran Colisionador de Hadrones (LHC) es una herramienta poderosa que choca protones a altas velocidades. Cuando ocurren estas colisiones, se producen una variedad de partículas. Entre ellas, buscamos neutrinos pesados. Pueden aparecer en forma de estados finales hadrónicos, lo que significa que buscamos resultados que involucren chorros de partículas producidas por la energía liberada en las colisiones.

Para encontrar estos neutrinos pesados, los investigadores están usando Aprendizaje automático. Este es un método en el que las computadoras analizan datos y buscan patrones que los humanos podrían perderse. Dos métodos comunes de aprendizaje automático utilizados en esta investigación se llaman Árboles de Decisión Aumentados por Gradiente (GBDT) y Perceptrón Multicapa (MLP). Estos métodos ayudan a analizar varias señales que provienen de las colisiones, centrándose en un tipo especial de señal conocida como jet grueso, que es más complicada pero puede indicar la presencia de neutrinos pesados.

Al mirar los resultados de las colisiones, los científicos descubrieron que ciertas mediciones, como la masa de las partículas formadas después de las colisiones, eran muy importantes para separar las señales de neutrinos pesados del ruido de fondo causado por otras partículas. Al aplicar aprendizaje automático, pudieron mejorar cómo identificaban las señales de neutrinos pesados en comparación con métodos más antiguos que dependían de hacer cortes drásticos en los datos. Los hallazgos sugirieron que el aprendizaje automático podría ofrecer una visión más clara de lo que está sucediendo cuando se producen neutrinos pesados.

El estudio se centró en neutrinos pesados que podrían tener masas entre 100 GeV y 1 TeV. Estos son relativamente pesados en comparación con los neutrinos normales, por eso son tan interesantes para los físicos. La investigación mostró que usar técnicas de aprendizaje automático podría mejorar los límites sobre cuánto se mezclan estos neutrinos pesados con otros tipos de neutrinos.

Además de buscar neutrinos pesados, los científicos también examinaron cómo diferentes modelos podrían explicar la masa de estas partículas. Un modelo bien conocido es el mecanismo de seesaw, que intenta explicar por qué los neutrinos ligeros tienen masas tan pequeñas. Sin embargo, cuando se consideran neutrinos pesados, son necesarios algunos cambios en los modelos, particularmente en lo que llamamos el mecanismo de seesaw inverso. Este modelo permite la existencia de neutrinos pesados sin causar problemas con las interacciones de partículas conocidas.

El LHC estudia estos neutrinos principalmente a través de un proceso llamado proceso Drell-Yan, donde se producen partículas y decaen en varias formas, incluidos jets. Los patrones de decaimiento brindan pistas sobre las partículas originales creadas durante las colisiones. El desafío radica en distinguir estas señales del ruido de fondo creado por partículas ordinarias producidas en las mismas colisiones.

Un enfoque innovador es usar técnicas de subestructura de jets. Estos métodos analizan cuán agrupadas están las partículas en un jet, dando pistas sobre si el jet proviene de un neutrino pesado. Un jet grueso indica que las partículas provienen de una sola fuente, lo cual es esencial al buscar neutrinos pesados.

A medida que los científicos realizaban sus experimentos, combinaron métodos de análisis tradicionales con aprendizaje automático. Al utilizar datos históricos, pudieron entrenar los modelos de aprendizaje automático para reconocer patrones en los datos de colisiones a diferentes niveles de energía, incluyendo 13, 27 e incluso 100 TeV. Estos niveles de energía representan la fuerza de las colisiones y el potencial para producir partículas más pesadas.

Los neutrinos pesados pueden decaer en diferentes combinaciones de partículas, llevando a estados finales que incluyen muones y jets. Para separar señales del ruido de fondo, los investigadores analizaron cuidadosamente diferentes propiedades de estos estados finales. Miraron variables como el momento de las partículas y sus masas, encontrando que ciertas combinaciones ayudaron a identificar la presencia de neutrinos pesados.

Usando aprendizaje automático, los investigadores intentaron optimizar sus análisis. Al alimentar a los algoritmos de aprendizaje automático con características específicas de los datos, podían clasificar los resultados en diferentes categorías. Esto ayudó a separar la señal producida por neutrinos pesados del ruido de fondo ordinario.

Después de realizar los análisis, los científicos identificaron cuán efectivos eran cada uno de los métodos para distinguir señales del ruido. Se encontró que los métodos de aprendizaje automático generalmente lograban mejores resultados, permitiendo a los investigadores encontrar neutrinos pesados de manera más efectiva que las técnicas de análisis tradicionales. La comparación también mostró que el método GBDT superó al MLP en muchos casos.

Para visualizar sus hallazgos, los investigadores trazaron resultados que mostraban la relación entre la eficiencia de la señal y el rechazo de fondo. El objetivo es maximizar la significancia, que indica cuán probable es que la señal observada se deba a neutrinos pesados en lugar de al azar. Las pruebas mostraron que el método GBDT a menudo proporcionaba una mayor significancia en comparación con los métodos basados en cortes.

Los hallazgos también incluyeron cuán bien estas técnicas podían investigar las propiedades de los neutrinos pesados a través de diferentes niveles de energía. Las colisiones de mayor energía en el LHC conducen a más eventos, lo que permite a los científicos recopilar más datos. Estos datos ayudan a refinar su comprensión de los neutrinos pesados y sus propiedades.

Si bien el aprendizaje automático ha mejorado la búsqueda de neutrinos pesados, los investigadores reconocen que los fondos generados por otros procesos siguen siendo un desafío. El uso de técnicas de subestructura de jets, combinado con métodos avanzados de aprendizaje automático, permite mejoras significativas en cómo se pueden estudiar estas partículas.

Mirando las perspectivas futuras, los investigadores están emocionados por las posibles mejoras a medida que avanza la tecnología de colisionadores. Nuevas propuestas para colisionadores de mayor energía prometen aún más oportunidades para descubrimientos. La esperanza es que detectar neutrinos pesados podría llevar a descubrimientos en la comprensión de la física fundamental.

Esta investigación en curso significa la importancia de integrar tecnología, como el aprendizaje automático, en la física experimental para mejorar la búsqueda de nuevas partículas que podrían reconfigurar nuestra comprensión del universo. El trabajo para detectar neutrinos pesados resalta el equilibrio intrincado que se necesita entre teoría, experimento y tecnología en la física moderna. Los avances continuos en estas áreas proporcionarán una visión más clara de los misterios de los neutrinos y su papel en el universo.

Fuente original

Título: Probing Heavy Neutrinos at the LHC from Fat-jet using Machine Learning

Resumen: We explore the potential to use machine learning methods to search for heavy neutrinos, from their hadronic final states including a fat-jet signal, via the processes $pp \rightarrow W^{\pm *}\rightarrow \mu^{\pm} N \rightarrow \mu^{\pm} \mu^{\mp} W^{\pm} \rightarrow \mu^{\pm} \mu^{\mp} J$ at hadron colliders. We use either the Gradient Boosted Decision Tree or Multi-Layer Perceptron methods to analyse the observables incorporating the jet substructure information, which is performed at hadron colliders with $\sqrt{s}=$ 13, 27, 100 TeV. It is found that, among the observables, the invariant masses of variable system and the observables from the leptons are the most powerful ones to distinguish the signal from the background. With the help of machine learning techniques, the limits on the active-sterile mixing have been improved by about one magnitude comparing to the cut-based analyses, with $V_{\mu N}^2 \lesssim 10^{-4}$ for the heavy neutrinos with masses, 100 GeV$~

Autores: Wei Liu, Jing Li, Zixiang Chen, Hao Sun

Última actualización: 2023-03-28 00:00:00

Idioma: English

Fuente URL: https://arxiv.org/abs/2303.15920

Fuente PDF: https://arxiv.org/pdf/2303.15920

Licencia: https://creativecommons.org/licenses/by/4.0/

Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.

Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.

Más de autores

Artículos similares