Simple Science

Ciência de ponta explicada de forma simples

# Física# Física de Altas Energias - Fenomenologia

Usando Aprendizado de Máquina pra Analisar Física de Partículas

Esse estudo usa aprendizado de máquina pra melhorar a análise de partículas.

― 10 min ler


Aprendizado de Máquina emAprendizado de Máquina emFísica de Partículaspartículas.eficiência da análise em física deAprendizado de máquina aumenta a
Índice

Extrair limites em operadores específicos na física de partículas pode ser bem complicado. Usar métodos de análise modernos ajuda bastante, especialmente pra medir sinais de nova física. Um desses métodos modernos é o Aprendizado de Máquina, que tá sendo cada vez mais usado na física de partículas. Neste estudo, a gente foca em processos que produzem partículas, olhando particularmente para os canais de decaimento relacionados a bosões vetoriais. Usamos árvores de decisão impulsionadas, que analisam as informações de cada evento pra diferenciar sinal de ruído de fundo. Essa abordagem permite que a gente estabeleça limites em certos operadores em um modelo teórico e compare isso com os limites obtidos de métodos de análise tradicionais.

Os algoritmos de aprendizado de máquina são ferramentas poderosas que funcionam melhor quando há grandes conjuntos de dados disponíveis. Em experimentos em colididores de hádrons, geralmente tem muita informação, tornando esses algoritmos ideais pra analisar esses experimentos. Uma aplicação chave desses algoritmos é classificar eventos em sinal e fundo, uma tarefa que pode ser difícil de executar com precisão usando métodos mais antigos. Porém, é importante notar que o aprendizado de máquina tem várias outras aplicações na física de partículas, porém discutir isso está além do escopo desse estudo. Pra mais informações sobre o uso de aprendizado de máquina em física de altas energias, você pode conferir várias análises que resumem pesquisas recentes nessa área.

Esse estudo segue pesquisas anteriores que focaram em processos de produção em colididores de hádrons. Nessa pesquisa, derivamos limites em certas interações dentro do modelo teórico da Teoria de Campos Eficaz do Modelo Padrão. O nosso estudo atual visa aproveitar as forças das técnicas de aprendizado de máquina pra melhorar a sensibilidade a efeitos de nova física em comparação com métodos tradicionais. Também buscamos comparar os resultados obtidos através do aprendizado de máquina com os das análises anteriores.

Os canais de produção de dibosons oferecem um jeito de fazer medições precisas e podem ajudar a investigar o comportamento do bóson de Higgs em altas energias. Esses canais são promissores pra testar vários modelos de nova física. Pra mais detalhes teóricos sobre a produção de dibosons e medições de precisão, os artigos companheiros anteriores fornecem bastante informação. Trabalhos anteriores também examinaram medições de precisão em canais relacionados, incluindo os onde uma partícula de Higgs impulsionada decai em dois quarks.

A escolha de estudar um canal de produção particular foi motivada pelo fato de que certos eventos de fundo podem ser minimizados de forma eficaz usando cortes em variáveis cinemáticas. Isso nos levou a acreditar que há menos espaço pra melhorias através do aprendizado de máquina nesses canais. Em contraste, o canal em que focamos tem um ruído de fundo significativo, o que torna mais desafiador separá-lo do sinal.

Selecionamos árvores de decisão impulsionadas pra essa análise porque temos um número limitado de variáveis cinemáticas disponíveis pra distinguir entre sinal e fundo. As árvores de decisão impulsionadas são mais fáceis de otimizar do que outros algoritmos, como redes neurais. Decidimos usar simulações baseadas em dados do LHC porque nossos estudos anteriores usando dados de outro colisor tinham limitações. Estimamos que as incertezas estatísticas nessa nova análise são suficientes pra permitir uma comparação justa entre os métodos de aprendizado de máquina e os tradicionais.

Os algoritmos de aprendizado de máquina têm várias vantagens em comparação com métodos tradicionais. Eles frequentemente descobrem padrões nos dados que não são prontamente aparentes através de técnicas convencionais. Além disso, podem ser mais simples de implementar para certos problemas que, de outra forma, exigiriam códigos complicados ou ajustes manuais extensos. Porém, algumas desvantagens foram identificadas, incluindo uma falta geral de transparência no processo de tomada de decisão dos modelos de aprendizado de máquina. Abordar esse problema é importante, e existem técnicas disponíveis pra tornar esses modelos mais interpretáveis. Um desses métodos envolve o uso de valores SHAP, uma forma de explicar a saída dos modelos de aprendizado de máquina.

A primeira parte da nossa análise descreve a configuração geral da nossa investigação física, que é semelhante ao que já delineamos em trabalhos anteriores. A segunda parte apresenta rapidamente os valores SHAP, que usamos pra explicar as saídas do nosso modelo de aprendizado de máquina. Depois disso, detalhamos as especificidades da análise de aprendizado de máquina que realizamos. Finalmente, apresentamos nossas descobertas, mostrando os limites derivados da análise de aprendizado de máquina e comparando-os com os limites obtidos anteriormente através de métodos tradicionais. Também buscamos entender como as árvores de decisão impulsionadas operam.

Na próxima seção, apresentamos o embasamento teórico e os princípios físicos e técnicos utilizados na nossa análise. Resumimos a configuração geral de um ponto de vista físico, enquanto discussões mais detalhadas foram fornecidas em pesquisas anteriores. Depois introduzimos o conceito de valores SHAP, que utilizamos pra interpretar a saída do nosso modelo de aprendizado de máquina.

Nossa análise foca em quatro operadores específicos que contribuem significativamente para o crescimento de energia das correções em processos de produção. Esses operadores pertencem a uma base definida usada na física teórica. Ilustramos alguns diagramas de Feynman representativos pra uma compreensão mais clara dos processos envolvidos.

Os processos de produção que examinamos podem ser categorizados em diferentes grupos com base no número de léptons carregados presentes no estado final:

  1. Categoria zero-lépton: O sinal aqui envolve principalmente duas partículas, com a possibilidade de uma contribuição menor de uma terceira partícula se o lépton carregado não for detectado. Os fundos considerados incluem vários processos de produção que compartilham os mesmos modos de decaimento que o sinal.

  2. Categoria um-lépton: O sinal nesse caso consiste em um processo de produção onde um lépton carregado é detectado. Os fundos incluídos espelham processos semelhantes.

  3. Categoria dois-léptons: Nessa categoria, analisamos um sinal envolvendo dois léptons detectados, e o único fundo considerado vem de um processo de produção específico.

A região do espaço de fase que proporciona uma alta sensibilidade a operadores de nova física está normalmente associada a altas energias. Nessa área, o bóson de Higgs é frequentemente produzido em um estado "impulsionado", que tem propriedades cinemáticas distintas que podem ser testadas pra diferenciar entre sinais e eventos de fundo. Um método pra avaliar tais partículas de Higgs impulsionadas é conhecido como "mass-drop tagging". Classificamos os eventos disponíveis em dois tipos: aqueles contendo um candidato a Higgs impulsionado e aqueles contendo um par de jatos resolvidos.

Em nosso trabalho anterior, otimizamos cortes nas variáveis cinemáticas para várias classes de eventos pra distinguir sinal de fundo. Nesta análise, em vez disso, confiamos em árvores de decisão impulsionadas pra essa separação. Os eventos foram gerados usando um pacote de simulação combinado com funções de distribuição de partons específicas. Depois, chuveiros de partons e decaimentos foram simulados usando uma ferramenta diferente. Os operadores teóricos foram incorporados à nossa análise através de modelos estabelecidos.

Pra esclarecer as previsões de nossas árvores de decisão impulsionadas, aplicamos valores SHAP, que fornecem uma medida da importância das características. Isso envolve examinar como cada característica de entrada afeta as previsões feitas pelo modelo. Definimos a importância de uma forma simples: a contribuição de uma característica de entrada pode ser avaliada comparando a previsão do modelo com e sem essa característica.

Embora essa abordagem forneça clareza, pode ser computacionalmente exigente, já que requer o treinamento de modelos pra cada combinação possível de características de entrada. Pra agilizar o processo, aplicamos os valores SHAP diretamente, que nos permitem aproximar o efeito de remover variáveis do modelo sem o extenso ônus computacional.

Avançando, descrevemos nossa metodologia para a análise de aprendizado de máquina que substitui os métodos tradicionais de corte e contagem. Utilizamos uma árvore de decisão impulsionada pra cada intervalo nas categorias de léptons. Essa análise binária foi escolhida pra levar em conta as sensibilidades variáveis a operadores de nova física. Pré-selecionamos os eventos usados pra cada análise com base no número de léptons carregados e se os eventos continham um candidato a Higgs impulsionado.

Pra otimizar nosso modelo, usamos uma função de perda de entropia cruzada binária. Os pesos correspondentes aos eventos nos permitem levar em conta sua importância no desempenho do modelo, assim aumentando a discriminação entre eventos de sinal e fundo.

Ao apresentar nossos resultados, delineamos os limites que conseguimos através da análise da árvore de decisão impulsionada. Esses limites demonstram as melhorias feitas em comparação com análises anteriores de corte e contagem. Aprofundamos em como as árvores de decisão utilizam variáveis cinemáticas pra diferenciar entre sinal e fundo, aproveitando os valores SHAP pra iluminar o funcionamento do modelo.

Além disso, visualizamos as distribuições cinemáticas de eventos de sinal e fundo antes e depois de aplicar nossos métodos de análise. Observar as diferenças nas distribuições cinemáticas revela que, enquanto análises tradicionais produzem cortes nítidos nas distribuições, a abordagem de aprendizado de máquina permite transições mais suaves nos dados. Esse comportamento mais suave indica um modelamento sofisticado das probabilidades de que os sinais possam surgir.

Comparamos os valores absolutos médios dos valores SHAP das características de entrada usadas na nossa análise, verificando a congruência com as expectativas anteriores de tabelas de fluxo de corte tradicionais. Os valores SHAP fornecem um meio de obter insights sobre quais variáveis cinemáticas desempenham papéis significativos em discriminar entre sinal e fundo.

Em conclusão, nossa pesquisa ilustra como o aprendizado de máquina pode servir como uma alternativa viável aos métodos tradicionais de corte e contagem na análise de física de partículas. Usando os valores SHAP, conseguimos fornecer clareza sobre os processos de tomada de decisão dos algoritmos de aprendizado de máquina. Demonstramos que esses modelos podem ser tornados interpretáveis, destacando suas vantagens em utilizar os recursos estatísticos disponíveis de forma mais eficaz do que as análises convencionais.

Além disso, encontramos que os métodos de aprendizado de máquina produzem limites melhorados para nossa análise. No entanto, reconhecemos a necessidade de mais pesquisas pra otimizar hiperparâmetros e considerar variáveis cinemáticas de nível mais baixo pra uma sensibilidade ainda maior. Nosso estudo sinaliza uma direção promissora para investigações futuras sobre as capacidades do aprendizado de máquina no campo da física de partículas.

Fonte original

Título: Improved Precision in $Vh(\rightarrow b\bar b)$ via Boosted Decision Trees

Resumo: Extracting bounds on BSM operators at hadron colliders can be a highly non-trivial task. It can be useful or, depending on the complexity of the event structure, even essential to employ modern analysis techniques in order to measure New-Physics effects. A particular class of such modern methods are Machine-Learning algorithms, which are becoming more and more popular in particle physics. We attempt to gauge their potential in the study of $Vh(\rightarrow b\bar b)$ production processes, focusing on the leptonic decay channels of the vector bosons. Specifically, we employ boosted decision trees using the kinematical information of a given event to discriminate between signal and background. Based on this analysis strategy, we derive bounds on four dimension-6 SMEFT operators and subsequently compare them with the ones obtained from a conventional cut-and-count analysis. We find a mild improvement of $\mathcal{O}(\mathrm{few}\, \%)$ across the different operators.

Autores: Philipp Englert

Última atualização: 2024-07-30 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2407.21239

Fonte PDF: https://arxiv.org/pdf/2407.21239

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Artigos semelhantes