Die Rolle von epigenetischen Biomarkern bei Gesundheitsvorhersagen
Forschung zeigt, dass DNA-Marker nützliche Werkzeuge für eine bessere Gesundheitsrisikobewertung sind.
― 6 min Lesedauer
Inhaltsverzeichnis
- Herausforderungen mit DNA-Methylierungsdaten
- Wie DNA-Methylierungsarrays funktionieren
- Ansätze zur Normalisierung von DNAm-Daten
- Testen von Normalisierungsmethoden in Kohorten
- Bewertung des Erfolgs der Normalisierungsmethoden
- Bewertung der Vorhersage-Robustheit
- Wichtige Erkenntnisse und Auswirkungen
- Fazit
- Originalquelle
- Referenz Links
Es gibt ein wachsendes Interesse daran, spezielle Marker in unserer DNA, bekannt als epigenetische Biomarker, für Gesundheitsstudien zu nutzen. Diese Marker können uns wichtige Informationen über Dinge wie Körperfett, Rauchgewohnheiten und Alkoholkonsum geben. Oft sind Informationen über diese Eigenschaften unzuverlässig, weil sich die Leute möglicherweise nicht genau erinnern, wenn sie gefragt werden. Durch die Verwendung dieser DNA-Marker hoffen die Forscher, Individuen besser nach ihren Gesundheitsrisiken einteilen und die Chancen vorhersagen zu können, bestimmte Krankheiten zu entwickeln.
Herausforderungen mit DNA-Methylierungsdaten
Einer der Hauptmarker, der untersucht wird, ist die DNA-Methylierung (DNAm). Dabei handelt es sich um chemische Veränderungen an der DNA, die beeinflussen können, wie Gene funktionieren, ohne die eigentliche DNA-Sequenz zu verändern. Wenn Forscher jedoch DNAm-Daten aus verschiedenen Gruppen von Menschen oder unterschiedlichen Laborumgebungen sammeln, kann es Variationen geben, die die richtige Interpretation der Ergebnisse erschweren.
Um das anzugehen, versuchen Wissenschaftler, die Daten zu "normalisieren", was bedeutet, sie anzupassen, um diese Unterschiede zu berücksichtigen. Manchmal kann dieser Prozess jedoch auch wichtige Informationen über biologische Unterschiede zwischen Individuen entfernen, was zu irreführenden Schlussfolgerungen führen kann. Da die Forscher versuchen, Informationen aus mehreren Studien zu kombinieren, ist es entscheidend zu wissen, wie die Normalisierung die Daten beeinflusst.
Einige aktuelle Studien haben gezeigt, dass bei der Anwendung verschiedener Normalisierungsmethoden auf dieselben Proben die Ergebnisse erheblich variieren können. Das kann es schwierig machen für Wissenschaftler, sicherzustellen, dass ihre Ergebnisse zuverlässig sind und in verschiedenen Populationen reproduziert werden können.
Wie DNA-Methylierungsarrays funktionieren
Um DNAm zu messen, verwenden Forscher oft Geräte wie die Illumina Infinium HumanMethylation450 und EPIC-Arrays. Diese Werkzeuge überprüfen DNAm im gesamten Genom. Sie funktionieren, indem sie winzige Sonden an spezifische DNA-Stellen anheften. Je nachdem, ob diese Stellen methyliert (mit einer Methylgruppe versehen) oder unmethyliert (ohne die Methylgruppe) sind, signalisieren sie unterschiedliche Farben, um den Status der DNA zu zeigen.
Es gibt zwei Arten von Sonden: Typ I und Typ II. Typ I verwendet zwei kurze Segmente für jede DNA-Stelle, eines für den methylierten Zustand und eines für den unmethylierten Zustand. Typ II verwendet eine einzige Sonde, die beide Zustände mit unterschiedlichen Farben signalisieren kann.
Ansätze zur Normalisierung von DNAm-Daten
Forscher verwenden verschiedene Methoden, um die DNAm-Daten zu normalisieren. Eine gängige Technik wird als Quantile Normalisierung (QN) bezeichnet. Diese Methode passt die Werte an, sodass ihre Verteilung über alle Proben hinweg gleich ist, was hilft, Verzerrungen zu beheben, die durch Unterschiede in der Funktionsweise der Sonden entstehen. Einige Methoden konzentrieren sich auf Korrekturen innerhalb einzelner Proben, während andere Anpassungen für Variationen über mehrere Proben hinweg vornehmen.
Zu den spezifischen Normalisierungsmethoden gehören:
- Subset-Quantile Within Array Normalization (SWAN): Diese Methode konzentriert sich auf eine zufällige Auswahl ähnlicher DNA-Sonden, um Werte anzupassen.
- Beta-Mixture Quantile Normalization (BMIQ): Diese Methode passt speziell Typ II-Sonden an, um die Verteilung der Typ I-Sonden zu spiegeln.
- Peak-Based Correction (PBC): Diese Methode ändert Typ II-Sonden basierend auf Daten von Typ I-Sonden.
- Normal-Exponential Out-of-Band (Noob): Diese Technik korrigiert Hintergrundgeräusche und Farbverzerrungen zwischen den Sonden.
Indem sie technische Probleme in den Daten effektiv angehen, können Forscher individuelle Datenpunkte normalisieren, ohne alle vorherigen Daten zusammen anpassen zu müssen, was zeitaufwändig und kostspielig sein kann.
Testen von Normalisierungsmethoden in Kohorten
In einer aktuellen Studie haben Forscher verschiedene Normalisierungsmethoden auf zwei Gruppen älterer Erwachsener mit ähnlichem Alter angewendet, um herauszufinden, welche Methoden am besten abschnitten. Sie schauten sich speziell an, wie genau sie den Body-Mass-Index (BMI) mithilfe von epigenetischen Scores (EpiScores), die aus DNAm-Daten abgeleitet wurden, vorhersagen konnten.
Fünfzehn verschiedene Normalisierungsmethoden wurden über die beiden Gruppen hinweg bewertet. Die Proben wurden aus zwei verschiedenen Zeiträumen entnommen, was einen soliden Vergleich ermöglichte. Nachdem sie unzuverlässige Daten gefiltert hatten, hatten sie insgesamt 885 Personen zur Analyse.
Bewertung des Erfolgs der Normalisierungsmethoden
Obwohl keine einzelne Normalisierungsmethode als klare Siegerin hervorging, schnitt einige besser ab als andere, basierend auf spezifischen Metriken, die zur Bewertung ihrer Effektivität verwendet wurden. Methoden wie "daten2" und "naten" zeigten insgesamt vielversprechende Ergebnisse, während andere, wie die Tost-Methode und die unnormalisierten Daten, weniger effektiv waren.
Die Forscher überprüften, wie gut die EpiScores mit den tatsächlichen BMI-Messungen korrelierten. Sie fanden heraus, dass die durchschnittlichen Korrelationen zwischen den beiden Gruppen variierten, aber die am besten abschneidende Normalisierungsmethode in einer Gruppe war auch in der anderen effektiv.
Bewertung der Vorhersage-Robustheit
Während die Wahl der Normalisierungsmethode die Korrelationen beeinflusste, untersuchten sie auch, wie konsistent die Vorhersagen waren, wenn verschiedene Methoden verwendet wurden. Einige Methoden produzierten sehr ähnliche EpiScores für Individuen, unabhängig davon, ob der Datensatz zusammen oder separat verarbeitet wurde. Zum Beispiel zeigte SWAN in beiden Gruppen eine gute Leistung.
Die Forscher stellten fest, dass die Gruppe von Normalisierungsmethoden ohne Farbstoffkorrekturen grössere Unterschiede in den EpiScores zeigte, wenn der Datensatz separat angepasst wurde, im Vergleich dazu, als er mit einer Referenzpopulation kombiniert wurde.
Wichtige Erkenntnisse und Auswirkungen
Die Studie hob hervor, dass die Beseitigung technischer Geräusche aus DNAm-Daten entscheidend für die Erzielung zuverlässiger Vorhersagen ist. Idealerweise sollten die Methoden, die zur Normalisierung gewählt werden, konsistente Ergebnisse liefern, unabhängig davon, ob die Daten allein oder zusammen mit anderen Datensätzen verarbeitet werden. Zwischen-Array-Methoden lieferten bessere Vorhersagen, wenn sie Farbstoffkorrekturen berücksichtigten, was bei der Anwendung dieser Methoden in der Gesundheitsversorgung beachtet werden sollte.
Wirksame DNAm-Vorhersagewerkzeuge sind entscheidend für ein besseres Verständnis von Gesundheitsrisiken und die Entwicklung personalisierter Gesundheitsstrategien. Die Forscher wiesen auch darauf hin, dass bestehende EpiScore-Analysen hauptsächlich darauf abzielen, wie sich die Scores innerhalb einer Gruppe unterscheiden, aber die Anwendung verschiedener Normalisierungsansätze kann zuverlässige Vorhersagen über verschiedene Populationen hinweg gewährleisten.
Fazit
Diese Studie betont die Wichtigkeit einer sorgfältigen Auswahl von Normalisierungsmethoden, wenn DNAm-Daten für Gesundheitsvorhersagen analysiert werden. Wissenschaftler wollen zuverlässige Werkzeuge bereitstellen, die in realen Gesundheitssystemen eingesetzt werden können, um ein besseres Verständnis und die Vorhersage komplexer Gesundheitsmerkmale, einschliesslich BMI, zu ermöglichen. Durch die Gewährleistung, dass diese Methoden robust und anwendbar in verschiedenen Populationen sind, ist das Ziel, die Gesundheitsforschung und die Ergebnisse für Einzelpersonen zu verbessern.
Titel: Integration of DNA methylation datasets for individual prediction
Zusammenfassung: BackgroundEpigenetic scores (EpiScores) can provide blood-based biomarkers of lifestyle and disease risk. Projecting a new individual onto a reference panel would aid precision medicine and risk communication but is challenging due to the separation of technical and biological sources of variation with array data. Normalisation methods can standardize data distributions but may also remove population-level biological variation. MethodsWe compared two independent birth cohorts (Lothian Birth Cohorts of 1921 and 1936 - nLBC1921 = 387 and nLBC1936 = 498) with DNA methylation assessed at the same chronological age (79 years) and processed in the same lab but in different years and experimental batches. We examined the effect of 15 normalisation methods on a BMI EpiScore (trained in an external cohort of 18,413 individuals) when the cohorts were normalised separately and together. ResultsThe BMI EpiScore explained a maximum variance of R2=24.5% in BMI in LBC1936 after SWAN normalisation. Although there were differences in the variance explained across cohorts, the normalisation methods made minimal differences to the estimates within cohorts. Conversely, a range of absolute differences were seen for individual-level EpiScore estimates when cohorts were normalised separately versus together. While within-array methods result in identical BMI EpiScores whether a cohort was normalised on its own or together with the second dataset, a range of differences were observed for between-array methods. ConclusionsUsing normalisation methods that give similar EpiScores whether cohorts are analysed separately or together will minimise technical variation when projecting new data onto a reference panel. These methods are especially important for cases where when raw data and joint normalisation of cohorts is not possible or is computationally expensive.
Autoren: Riccardo E Marioni, C. Merzbacher, B. Ryan, T. Goldsborough, R. F. Hillary, A. Campbell, L. Murphy, A. M. McIntosh, D. Liewald, S. E. Harris, A. F. McRae, S. R. Cox, T. I. Cannings, C. A. Vallejos, D. L. McCartney
Letzte Aktualisierung: 2023-03-22 00:00:00
Sprache: English
Quell-URL: https://www.medrxiv.org/content/10.1101/2023.03.22.23287572
Quell-PDF: https://www.medrxiv.org/content/10.1101/2023.03.22.23287572.full.pdf
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an medrxiv für die Nutzung seiner Open-Access-Interoperabilität.