Simple Science

Scienza all'avanguardia spiegata semplicemente

# Fisica# Fisica delle alte energie - Fenomenologia

Ricerca di neutrini pesanti al LHC

I ricercatori usano il machine learning per identificare neutrini pesanti nelle collisioni di particelle.

― 6 leggere min


Neutrini Pesanti ScopertiNeutrini Pesanti Scoperticollisioni di particelle.neutrini pesanti sfuggenti nelleIl machine learning aiuta a cercare
Indice

Gli scienziati stanno cercando Neutrini Pesanti, che sono particelle che potrebbero dare risposte a grandi domande nella fisica. Questi neutrini potrebbero aiutare a spiegare perché altri neutrini hanno masse così piccole. La loro esistenza potrebbe indicare una nuova fisica oltre a ciò che sappiamo attualmente.

Il Large Hadron Collider (LHC) è uno strumento potente che collide protoni a velocità elevate. Quando queste collisioni avvengono, viene prodotta una varietà di particelle. Tra queste, cerchiamo neutrini pesanti. Possono apparire sotto forma di stati finali hadronici, il che significa che cerchiamo risultati che coinvolgono jet di particelle prodotte dall'energia rilasciata nelle collisioni.

Per trovare questi neutrini pesanti, i ricercatori stanno usando il machine learning. Questo è un metodo in cui i computer analizzano i dati e cercano modelli che gli esseri umani potrebbero perdere. Due metodi comuni di machine learning utilizzati in questa ricerca si chiamano Gradient Boosted Decision Trees (GBDT) e Multi-Layer Perceptron (MLP). Questi metodi aiutano ad analizzare vari segnali che provengono dalle collisioni, concentrandosi su un tipo speciale di segnale noto come Fat-Jet, che è più complicato ma può indicare la presenza di neutrini pesanti.

Guardando i risultati delle collisioni, gli scienziati hanno scoperto che alcune misurazioni, come la massa delle particelle formate dopo le collisioni, erano molto importanti per separare i segnali dei neutrini pesanti dal rumore di fondo causato da altre particelle. Applicando il machine learning, sono stati in grado di migliorare la loro capacità di identificare i segnali dei neutrini pesanti rispetto ai metodi più vecchi che si basavano su tagli netti nei dati. I risultati suggerivano che il machine learning potesse dare una visione più chiara di ciò che accade quando vengono prodotti neutrini pesanti.

Lo studio si è concentrato su neutrini pesanti che potrebbero avere masse tra 100 GeV e 1 TeV. Questi sono relativamente pesanti rispetto ai neutrini normali, ed è per questo che sono così interessanti per i fisici. La ricerca ha dimostrato che l'uso di tecniche di machine learning potrebbe migliorare i limiti su quanto questi neutrini pesanti si mescolano con altri tipi di neutrini.

Oltre a cercare neutrini pesanti, gli scienziati hanno anche esaminato come diversi modelli potrebbero spiegare la massa di queste particelle. Un modello ben conosciuto è il meccanismo del seesaw, che cerca di spiegare perché i neutrini leggeri hanno masse così piccole. Tuttavia, quando si considerano i neutrini pesanti, sono necessarie alcune modifiche nei modelli, in particolare in quello che chiamiamo meccanismo seesaw inverso. Questo modello consente l'esistenza di neutrini pesanti senza causare problemi con le interazioni delle particelle conosciute.

L'LHC studia questi neutrini principalmente attraverso un processo chiamato processo Drell-Yan, dove le particelle vengono prodotte e decadono in varie forme, inclusi i jet. I modelli di decadimento forniscono indizi sulle particelle originali create durante le collisioni. La sfida sta nel distinguere questi segnali dal rumore di fondo creato da particelle ordinarie prodotte nelle stesse collisioni.

Un approccio innovativo è utilizzare tecniche di sottostruttura dei jet. Questi metodi analizzano quanto sono strettamente accorpate le particelle in un jet, dando indizi su se il jet proviene da un neutrino pesante. Un fat-jet indica che le particelle provengono da una singola fonte, il che è essenziale quando si cercano neutrini pesanti.

Mentre gli scienziati conducevano i loro esperimenti, hanno combinato metodi di analisi tradizionali con il machine learning. Utilizzando dati storici, sono stati in grado di addestrare i modelli di machine learning a riconoscere schemi nei dati delle collisioni a diversi livelli di energia, inclusi 13, 27 e persino 100 TeV. Questi livelli di energia rappresentano la forza delle collisioni e il potenziale per produrre particelle più pesanti.

I neutrini pesanti possono decadere in diverse combinazioni di particelle, portando a stati finali che includono muoni e jet. Per separare i segnali dal rumore di fondo, i ricercatori hanno analizzato attentamente diverse proprietà di questi stati finali. Hanno esaminato variabili come il momento delle particelle e le loro masse, scoprendo che certe combinazioni aiutavano a identificare la presenza di neutrini pesanti.

Usando il machine learning, i ricercatori puntavano a ottimizzare le loro analisi. Alimentando gli algoritmi di machine learning con caratteristiche specifiche dai dati, potevano classificare i risultati in diverse categorie. Questo ha aiutato a separare il segnale prodotto dai neutrini pesanti dal rumore di fondo ordinario.

Dopo aver eseguito le analisi, gli scienziati hanno identificato l'efficacia di ciascun metodo nel distinguere segnali dal rumore. Si è scoperto che i metodi di machine learning generalmente ottenevano risultati migliori, consentendo ai ricercatori di trovare neutrini pesanti in modo più efficace rispetto alle tecniche di analisi tradizionali. Il confronto ha anche mostrato che il metodo GBDT ha superato l'MLP in molti casi.

Per visualizzare i loro risultati, i ricercatori hanno tracciato risultati che mostrano la relazione tra l'efficienza del segnale e il rigetto del rumore di fondo. L'obiettivo è massimizzare l'importanza, che indica quanto sia probabile che il segnale osservato sia dovuto a neutrini pesanti piuttosto che a una semplice coincidenza. I test hanno mostrato che il metodo GBDT forniva spesso un'importanza maggiore rispetto ai metodi basati su tagli.

I risultati includevano anche quanto bene queste tecniche potessero sondare le proprietà dei neutrini pesanti a diversi livelli di energia. Collisioni ad alta energia all'LHC portano a più eventi, permettendo agli scienziati di raccogliere più dati. Questi dati aiutano a perfezionare la loro comprensione dei neutrini pesanti e delle loro proprietà.

Sebbene il machine learning abbia migliorato la ricerca di neutrini pesanti, i ricercatori riconoscono che i rumori di fondo generati da altri processi sono ancora una sfida. L'uso di tecniche di sottostruttura dei jet, combinato con metodi avanzati di machine learning, consente significativi miglioramenti nel modo in cui queste particelle possono essere studiate.

Guardando al futuro, i ricercatori sono entusiasti delle potenziali migliorie man mano che la tecnologia dei collider avanza. Nuove proposte per collider ad alta energia promettono ancora più opportunità per scoperte. La speranza è che rilevare neutrini pesanti potrebbe portare a progressi nella comprensione della fisica fondamentale.

Questa ricerca continua sottolinea l'importanza di integrare la tecnologia, come il machine learning, nella fisica sperimentale per migliorare la ricerca di nuove particelle che potrebbero rimodellare la nostra comprensione dell'universo. Il lavoro per rilevare neutrini pesanti evidenzia l'equilibrio intricato necessario tra teoria, esperimento e tecnologia nella fisica moderna. I continui progressi in questi settori forniranno intuizioni più chiare sui misteri dei neutrini e il loro ruolo nell'universo.

Fonte originale

Titolo: Probing Heavy Neutrinos at the LHC from Fat-jet using Machine Learning

Estratto: We explore the potential to use machine learning methods to search for heavy neutrinos, from their hadronic final states including a fat-jet signal, via the processes $pp \rightarrow W^{\pm *}\rightarrow \mu^{\pm} N \rightarrow \mu^{\pm} \mu^{\mp} W^{\pm} \rightarrow \mu^{\pm} \mu^{\mp} J$ at hadron colliders. We use either the Gradient Boosted Decision Tree or Multi-Layer Perceptron methods to analyse the observables incorporating the jet substructure information, which is performed at hadron colliders with $\sqrt{s}=$ 13, 27, 100 TeV. It is found that, among the observables, the invariant masses of variable system and the observables from the leptons are the most powerful ones to distinguish the signal from the background. With the help of machine learning techniques, the limits on the active-sterile mixing have been improved by about one magnitude comparing to the cut-based analyses, with $V_{\mu N}^2 \lesssim 10^{-4}$ for the heavy neutrinos with masses, 100 GeV$~

Autori: Wei Liu, Jing Li, Zixiang Chen, Hao Sun

Ultimo aggiornamento: 2023-03-28 00:00:00

Lingua: English

URL di origine: https://arxiv.org/abs/2303.15920

Fonte PDF: https://arxiv.org/pdf/2303.15920

Licenza: https://creativecommons.org/licenses/by/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Altro dagli autori

Articoli simili