Simple Science

La science de pointe expliquée simplement

# Physique# Physique des hautes énergies - Phénoménologie# Physique des hautes énergies - Expériences# Analyse des données, statistiques et probabilités

Faire progresser la physique des particules grâce aux techniques d'apprentissage automatique

Un nouveau cadre améliore l'analyse des collisions de particules et des incertitudes systémiques.

― 6 min lire


Amélioration de l'analyseAmélioration de l'analyseen physique desparticulesincertitudes systématiques.l'analyse non regroupée pour lesL'apprentissage automatique améliore
Table des matières

En physique des particules, les chercheurs travaillent pour comprendre les éléments fondamentaux de la matière et les forces qui régissent leurs interactions. Cela implique d'analyser des données provenant d'expériences, comme celles réalisées au Grand collisionneur de hadrons (LHC), où des collisions à haute énergie produisent une variété de particules. Un cadre important utilisé dans ces analyses est la Théorie effective des champs du modèle standard (SMEFT). Cette approche permet aux scientifiques d'étudier de nouvelles physiciens qui pourraient exister au-delà des théories établies.

Le défi des incertitudes systémiques

Lors de l'analyse des données provenant de collisions de particules, les chercheurs rencontrent des incertitudes systémiques. Ces incertitudes proviennent d'imperfections dans les mesures, telles que des inexactitudes dans la détection des particules ou des fluctuations dans les conditions expérimentales. Il est crucial de prendre en compte ces incertitudes pour garantir des résultats précis. Traditionnellement, de nombreuses analyses utilisent des données regroupées, où les événements sont classés en catégories ou "bins". Cependant, cela peut entraîner une perte d'information.

Analyse de données non regroupées

L'analyse de données non regroupées est une méthode plus sophistiquée qui conserve toutes les informations des événements. Cette approche permet aux chercheurs d'effectuer des mesures plus précises des paramètres d'intérêt, tels que les coefficients de Wilson dans le cadre de la SMEFT. Des techniques d'Apprentissage automatique ont récemment été introduites pour améliorer l'efficacité et la performance des analyses non regroupées.

Qu'est-ce que la SMEFT ?

La théorie effective des champs du modèle standard est un cadre qui étend le modèle standard. Il inclut des interactions supplémentaires entre les particules qui peuvent se produire à des niveaux d'énergie plus élevés. La SMEFT repose sur l'idée que les effets de nouvelles physiques peuvent être capturés en ajoutant des opérateurs spécifiques à la formulation mathématique du modèle standard. Les coefficients de ces opérateurs sont les paramètres que les chercheurs visent à déterminer par l'analyse.

Importance de l'apprentissage automatique

L'apprentissage automatique a ouvert de nouvelles voies pour analyser de grands ensembles de données. En employant des algorithmes qui apprennent à partir des données, les chercheurs peuvent créer des modèles qui prédisent des résultats en fonction de divers paramètres. Ces algorithmes s'avèrent particulièrement utiles dans le contexte des analyses non regroupées, où les relations entre différentes variables peuvent être complexes.

Le rôle des Rapports de vraisemblance

Un aspect clé de l'analyse statistique en physique est le rapport de vraisemblance. Ce rapport compare la probabilité d'observer les données sous différentes hypothèses. En maximisant le rapport de vraisemblance, les chercheurs peuvent déterminer le modèle le mieux ajusté aux données. L'apprentissage automatique peut aider à estimer ces rapports de vraisemblance, permettant une estimation plus efficace des paramètres.

Construire un cadre pour l'analyse

Cet article présente un cadre complet pour les analyses non regroupées dans le contexte de la SMEFT. Le cadre aborde le traitement des incertitudes systémiques, l'utilisation de l'apprentissage automatique et le développement d'outils statistiques robustes. En organisant la modélisation des incertitudes en différents niveaux (parton, particule et détecteur), les chercheurs peuvent gérer efficacement les complexités de l'analyse.

Modélisation hiérarchique

Dans le cadre proposé, la modélisation est organisée de manière hiérarchique. Cela signifie que les variables non observées et leurs effets systémiques associés sont regroupés en différentes catégories en fonction de leurs échelles d'énergie. Cette séparation simplifie l'analyse, permettant aux chercheurs de se concentrer sur un effet à la fois tout en tenant compte de l'impact global sur les résultats.

Analyse multi-étapes

Le cadre permet une analyse multi-étapes. Cela signifie que les chercheurs peuvent ajouter progressivement de nouveaux processus ou facteurs, affinant leurs modèles à mesure que de nouvelles données deviennent disponibles. Cela est particulièrement bénéfique car les estimations existantes restent valides même lorsque de nouveaux composants sont introduits, réduisant ainsi le besoin de réévaluations complètes.

Former des modèles d'apprentissage automatique

Pour faciliter une estimation efficace des paramètres, des modèles d'apprentissage automatique sont formés à l'aide de jeux de données synthétiques. Ces ensembles de données sont générés en fonction des comportements connus des systèmes étudiés. En utilisant une variété de points de données, les algorithmes d'apprentissage automatique peuvent apprendre à identifier des motifs et des relations, améliorant ainsi la précision des prédictions.

L'avantage des algorithmes basés sur les arbres

Parmi les techniques d'apprentissage automatique utilisées, on trouve des algorithmes basés sur des arbres. Ces algorithmes créent des modèles prédictifs basés sur des arbres de décision, qui divisent récursivement les données en sous-ensembles en fonction des valeurs des caractéristiques. Les modèles basés sur des arbres sont particulièrement avantageux en physique car ils peuvent gérer des interactions complexes et fournir des résultats interprétables.

Aborder les incertitudes systémiques

Les incertitudes systémiques sont une préoccupation majeure dans toute analyse de physique des hautes énergies. Dans le cadre proposé, ces incertitudes sont considérées comme des paramètres nuisibles. En les incorporant dans le processus de modélisation, les chercheurs peuvent évaluer leur impact sur les résultats finaux et améliorer la robustesse de leurs conclusions.

Étude de cas : Production de paires de quarks top

Pour démontrer les capacités du cadre, une étude de cas semi-réaliste est présentée en se concentrant sur la production de paires de quarks top. Ce processus est critique pour tester des théories au-delà du modèle standard. En appliquant le cadre d'analyse non regroupée, les chercheurs peuvent estimer avec précision les incertitudes systémiques et déterminer des contraintes sur les paramètres d'intérêt.

Conclusion

L'intégration des techniques d'apprentissage automatique dans les analyses non regroupées représente une avancée significative dans le domaine de la physique des particules. En développant des modèles robustes pour traiter les incertitudes systémiques, les chercheurs peuvent extraire des informations plus précises des données expérimentales. Ce travail pave la voie à de futures études et améliore la capacité à explorer de nouvelles physiques au-delà de la compréhension actuelle.


En utilisant ce cadre complet, les physiciens peuvent améliorer leurs analyses et acquérir de meilleures connaissances sur la nature fondamentale de la matière et de l'univers. Avec l'évolution continue de la technologie et la disponibilité des données, l'avenir de la physique des particules s'annonce prometteur, avec le potentiel de découvertes révolutionnaires à l'horizon.

Source originale

Titre: Refinable modeling for unbinned SMEFT analyses

Résumé: We present techniques for estimating the effects of systematic uncertainties in unbinned data analyses at the LHC. Our primary focus is constraining the Wilson coefficients in the standard model effective field theory (SMEFT), but the methodology applies to broader parametric models of phenomena beyond the standard model (BSM). We elevate the well-established procedures for binned Poisson counting experiments to the unbinned case by utilizing machine-learned surrogates of the likelihood ratio. This approach can be applied to various theoretical, modeling, and experimental uncertainties. By establishing a common statistical framework for BSM and systematic effects, we lay the groundwork for future unbinned analyses at the LHC. Additionally, we introduce a novel tree-boosting algorithm capable of learning highly accurate parameterizations of systematic effects. This algorithm extends the existing toolkit with a versatile and robust alternative. We demonstrate our approach using the example of an SMEFT interpretation of highly energetic top quark pair production in proton-proton collisions.

Auteurs: Robert Schöfbeck

Dernière mise à jour: 2024-12-28 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2406.19076

Source PDF: https://arxiv.org/pdf/2406.19076

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus de l'auteur

Articles similaires