Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Physik# Hochenergiephysik - Phänomenologie# Hochenergiephysik - Gitter

Bestimmung der Partonverteilungsfunktionen mit Bayes'schen Methoden

Ein neuer Ansatz zur Extraktion von Parton-Verteilungsfunktionen aus Experimentaldaten.

― 5 min Lesedauer


Bayes'sche Methoden fürBayes'sche Methoden fürPDFsPartonverteilungsfunktionen.Ein robuster Ansatz zur Extraktion von
Inhaltsverzeichnis

Partonverteilungsfunktionen (PDFS) sind wichtige Werkzeuge in der Teilchenphysik. Sie helfen uns zu verstehen, wie die Teilchen in Protonen und Neutronen, die Partons genannt werden, in Bezug auf ihren Impuls verteilt sind. Diese Verteilungen sind entscheidend, um die Ergebnisse von Teilchenkollisionen in Beschleunigern wie dem Large Hadron Collider (LHC) zu analysieren. Allerdings ist es eine Herausforderung, diese PDFs aus experimentellen Daten zu bestimmen.

Die Herausforderung bei der Bestimmung von PDFs

Die Bestimmung von PDFs beinhaltet das Lösen eines inversen Problems. Einfach gesagt, bedeutet das, die ursprüngliche Funktion (die PDF) aus den beobachteten Daten herauszufinden. Dieser Prozess ist nicht einfach, weil es viele mögliche PDFs gibt, die zu denselben Messungen führen könnten. Daher brauchen wir Methoden, die uns helfen, Informationen aus den Daten genau zu extrahieren und mit Unsicherheiten umzugehen.

Was ist bayesianische Inferenz?

Bayesianische Inferenz ist ein statistischer Ansatz, der uns eine Möglichkeit gibt, unsere Überzeugungen basierend auf neuen Beweisen zu aktualisieren. Im Kontext von PDFs erlaubt uns die bayesianische Inferenz, unser Vorwissen über PDFs mit neuen Daten zu kombinieren, um unser Verständnis ihrer Verteilungen zu verbessern. Das zentrale Element hier ist der Satz von Bayes, der uns hilft, die Wahrscheinlichkeit einer bestimmten PDF zu berechnen, nachdem wir die experimentellen Daten betrachtet haben.

Verwendung von Gaussschen Prozessen

Eine vielversprechende Methode zur Modellierung von PDFs in der bayesianischen Inferenz ist die Verwendung von gaussschen Prozessen (GPs). GPs sind eine Art statistisches Modell, das Funktionen flexibel darstellen kann. Sie erlauben es uns, die Unsicherheit über die PDF darzustellen, während wir Daten sammeln. Durch die Verwendung von GPs können wir eine Priorverteilung für die PDFs definieren, die uns hilft, unser vorheriges Wissen in die Analyse einfliessen zu lassen.

Wie funktioniert die Methode?

In unserem Ansatz folgen wir mehreren Schritten:

  1. Einrichtung der Prior: Wir beginnen mit einer Priorverteilung, die widerspiegelt, was wir bereits über die PDFs wissen. Das könnte bekannte physikalische Einschränkungen beinhalten, wie das Verhalten von PDFs bei bestimmten Impulsbruchteilen.

  2. Daten beobachten: Dann sammeln wir experimentelle Daten aus Quellen wie tiefinelastischen Streuexperimenten. Diese Daten geben uns Einblicke, wie Partons in Protonen und Neutronen sich verhalten.

  3. Anwendung des Satzes von Bayes: Sobald wir die Priorverteilung und die Daten haben, wenden wir den Satz von Bayes an, um unsere Überzeugungen über die PDF zu aktualisieren. Das gibt uns eine Posteriorverteilung, die uns sagt, wie wahrscheinlich verschiedene PDFs sind, nachdem wir die Daten berücksichtigt haben.

  4. Umgang mit Unsicherheiten: Dieser Prozess ermöglicht es uns auch, die mit den PDFs verbundenen Unsicherheiten zu quantifizieren. Wir können verschiedene Fehlerquellen identifizieren, wie experimentelle Fehler oder Unsicherheiten, die mit dem Modell selbst in Zusammenhang stehen.

Beispiele zur Bestimmung von PDFs

Um unsere Methode zu veranschaulichen, betrachten wir zwei Beispiele.

Beispiel 1: Daten aus tiefinelastischen Streuungen

Im ersten Beispiel konzentrieren wir uns auf PDFs, die aus Daten von tiefinelastischen Streuungen (DIS) extrahiert wurden. In DIS-Experimenten kollidieren hochenergetische Elektronen mit Protonen, und durch das Studium der gestreuten Partikel können wir Einblicke in die PDF von Quarks im Proton gewinnen.

Wir erzeugen synthetische Daten basierend auf einer bekannten zugrunde liegenden PDF. Dadurch können wir testen, wie gut unsere Methodik die ursprüngliche PDF rekonstruiert. Wir wenden unseren bayesianischen Ansatz an, indem wir GPs verwenden, um unsere Prior festzulegen und sie mit den experimentellen Daten zu aktualisieren.

Nach der Analyse stellen wir fest, dass die extrahierte PDF der zugrunde liegenden sehr ähnlich ist, zusammen mit einer Quantifizierung der damit verbundenen Unsicherheiten. Das zeigt, dass unsere Methode die in den Daten vorhandenen Informationen erfolgreich erfasst.

Beispiel 2: Lattice-QCD-Daten

Im zweiten Beispiel wenden wir uns den Lattice-Quantenchromodynamik (QCD)-Daten zu. Lattice-QCD ist ein theoretischer Rahmen, der verwendet wird, um starke Wechselwirkungen zwischen Teilchen zu studieren. Hier wollen wir PDFs aus einer Reihe von Korrelator-Messungen auf einem Gitter bestimmen.

Ähnlich wie im ersten Beispiel erzeugen wir Pseudo-Daten basierend auf einem zugrunde liegenden Modell. Dann wenden wir unsere bayesianische Methodik an, um PDFs aus den Gitterdaten zu extrahieren. Wieder beobachten wir, dass die extrahierten PDFs mit dem ursprünglichen Modell gut übereinstimmen, was die Effektivität unseres Ansatzes demonstriert.

Bedeutung der Wahl der Prior

Ein entscheidender Aspekt unserer Methodik ist die Wahl der Priorverteilung. Die Prior beeinflusst, wie sich das Modell verhält, insbesondere in Bereichen, in denen es wenig oder keine Daten gibt. Daher wählen wir die Priors sorgfältig basierend auf bekannten physikalischen Eigenschaften von PDFs. Dazu gehören Einschränkungen wie Impulserhaltung und das Verhalten von PDFs bei niedrigen Impulsbruchteilen.

Umgang mit Unsicherheiten

Unsicherheiten in unseren Ergebnissen stammen aus verschiedenen Quellen, einschliesslich experimenteller Fehler und modellbezogener Unsicherheiten. Durch die Anwendung unseres bayesianischen Rahmens können wir diese Unsicherheiten analysieren und zwischen verschiedenen Beiträgen zur Gesamtunsicherheit in den PDFs unterscheiden. Das gibt uns ein klareres Bild davon, wie zuverlässig unsere PDF-Bestimmungen sind.

Validierung der Methodik

Um sicherzustellen, dass unsere Methodik solide ist, führen wir Validierungstests durch. Dazu gehört, zu überprüfen, wie gut unsere extrahierten PDFs mit den zugrunde liegenden Modellen übereinstimmen, die zur Erzeugung der Pseudo-Daten verwendet wurden. Wir quantifizieren unsere Ergebnisse mithilfe statistischer Metriken, die helfen, die Genauigkeit und Zuverlässigkeit der PDF-Bestimmungen zu bewerten.

Fazit und zukünftige Richtungen

Zusammenfassend präsentiert unsere Arbeit einen bayesianischen Ansatz zur Bestimmung von Partonverteilungsfunktionen unter Verwendung gaussscher Prozesse. Diese Methode ermöglicht es uns, Vorwissen zu integrieren, experimentelle Daten zu analysieren und Unsicherheiten effektiv zu handhaben. Die bereitgestellten Beispiele zeigen die Anwendbarkeit dieser Methodik bei der Extraktion von PDFs aus verschiedenen Datentypen.

In Zukunft wollen wir unseren Ansatz auf andere komplexe Datensätze ausweiten, einschliesslich echter experimenteller Daten von Teilchenbeschleunigern. Unser Ziel ist es, ein umfassendes Set von PDFs zu erstellen, die in Analysen der Hochenergiephysik verwendet werden können. Durch die Verfeinerung unserer Methodik und die Erkundung verschiedener Priors hoffen wir, die Genauigkeit und Robustheit der PDF-Bestimmungen erheblich zu verbessern.

Diese Arbeit schafft die Grundlage für zukünftige Studien, die unser Verständnis von Partonverteilungen und deren Auswirkungen in der fundamentalen Physik vorantreiben werden.

Originalquelle

Titel: Bayesian Inference with Gaussian Processes for the Determination of Parton Distribution Functions

Zusammenfassung: We discuss a Bayesian methodology for the solution of the inverse problem underlying the determination of parton distribution functions (PDFs). In our approach, Gaussian Processes (GPs) are used to model the PDF prior, while Bayes theorem is used in order to determine the posterior distribution of the PDFs given a set of data. We discuss the general formalism, the Bayesian inference at the level of both parameters and hyperparameters, and the simplifications which occur when the observable entering the analysis is linear in the PDF. We benchmark the new methodology in two simple examples for the determination of a single PDF flavor from a set of Deep Inelastic Scattering (DIS) data and from a set of equal-time correlators computed using lattice QCD. We discuss our results, showing how the proposed methodology allows for a well-defined statistical interpretation of the different sources of errors entering the PDF uncertainty, and how results can be validated a posteriori.

Autoren: Alessandro Candido, Luigi Del Debbio, Tommaso Giani, Giacomo Petrillo

Letzte Aktualisierung: 2024-07-02 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2404.07573

Quell-PDF: https://arxiv.org/pdf/2404.07573

Lizenz: https://creativecommons.org/licenses/by/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Mehr von den Autoren

Ähnliche Artikel