Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Elektrotechnik und Systemtechnik# Signalverarbeitung# Maschinelles Lernen# Audio- und Sprachverarbeitung

Deep Learning zur Erkennung von Herzgeräuschen

Diese Studie hebt hervor, wie Deep Learning dazu genutzt wird, Herzgeräusche aus Phonokardiogrammen zu identifizieren.

― 6 min Lesedauer


KI erkennt HerzgeräuscheKI erkennt HerzgeräuscheHerzprobleme aus Sounddaten.Fortgeschrittene Algorithmen erkennen
Inhaltsverzeichnis

Das Erkennen von Herzgeräuschen aus den Geräuschen des Herzens ist eine wichtige Aufgabe im Gesundheitswesen. Herzgeräusche können auf Probleme mit den Herzklappen hinweisen, die für eine ordnungsgemässe Herzfunktion entscheidend sind. In diesem Artikel wird ein Verfahren vorgestellt, das Deep Learning, eine Art Künstliche Intelligenz, nutzt, um automatisch Herzgeräusche aus Aufnahmen zu identifizieren, die als Phonokardiogramme (PCGs) bekannt sind.

Was ist ein Phonokardiogramm (PCG)?

Ein Phonokardiogramm ist eine Aufnahme der Geräusche, die das Herz beim Schlagen macht. Ärzte verwenden oft spezielle Geräte namens Stethoskope, um diese Geräusche zu hören und Unregelmässigkeiten zu identifizieren. Durch die digitale Aufnahme dieser Geräusche können Gesundheitsdienstleister sie später analysieren und nach Problemen wie Herzgeräuschen suchen. Herzgeräusche treten auf, wenn der Blutfluss turbulent ist, oft aufgrund von Klappenproblemen, und können auf verschiedene Herzbedingungen hinweisen.

Datensätze für das Training von Deep Learning Modellen

Um Deep Learning Modelle zur Erkennung von Herzgeräuschen zu trainieren, verwendeten die Forscher zwei öffentlich verfügbare Datensätze. Der erste ist der CirCor Digiscope-Datensatz von 2022, der über 3.000 Audioaufnahmen von pädiatrischen Patienten umfasst. Der zweite Datensatz stammt von der PhysioNet-Challenge 2016 und enthält etwa 3.240 Herzgeräuschaufnahmen.

Diese Datensätze sind wichtig, weil sie die Rohdaten liefern, die zum Trainieren der Modelle benötigt werden. Die Aufnahmen stammen aus bestimmten Bereichen der Brust, wo die Herzgeräusche am besten gehört werden können. Jede Aufnahme ist mit einem Label versehen, das angibt, ob ein Geräusch vorhanden ist, nicht vorhanden ist oder aufgrund von Rauschen unbekannt ist.

Vorverarbeitung der Daten

Bevor die Daten in die Deep Learning Modelle gespeist werden, werden mehrere Schritte unternommen, um die Aufnahmen vorzubereiten. Ziel ist es, die Daten sauberer und leichter verständlich für die Modelle zu machen.

  1. Geräuschreduzierung: Aufnahmen enthalten oft Hintergrundgeräusche, wie z.B. die Bewegung des Stethoskops, weinende Babys oder Gespräche. Um dieses Geräusch zu reduzieren, wird ein Tiefpassfilter angewendet. Dieser Filter lässt nur Frequenzen unter 300 Hz durch, was hilft, die Tonaufnahmen zu säubern.

  2. Segmentierung: Da die Aufnahmen unterschiedlich lang sind, werden sie in kleinere Segmente unterteilt. Jedes Segment ist 4 Sekunden lang, was optimal für das Training der Modelle ist.

  3. Labeling: Nach der Segmentierung ist es wichtig, jedem Segment die richtigen Labels zuzuweisen. Einige Segmente könnten nur Geräusche enthalten, daher werden sie als „unbekannt“ umlabelt. Das stellt sicher, dass die Trainingsdaten das Modell nicht irreführen.

  4. Normalisierung: Dieser Schritt beinhaltet die Anpassung der Segmente, damit sie ähnliche statistische Eigenschaften haben. Die Normalisierung der Daten hilft dem Modell, effektiver zu lernen.

Merkmale extrahieren mit Wavelet Scattering Transform

Nach der Vorverarbeitung der Daten besteht der nächste Schritt darin, Merkmale zu extrahieren, die für das Modell nützlich sind. Merkmale sind Eigenschaften, die aus den Rohdaten abgeleitet werden und dem Modell helfen, zwischen verschiedenen Klassen von Herzgeräuschen zu unterscheiden.

Hierfür wird das Verfahren der Wavelet Scattering Transform verwendet. Es nimmt die Audiosignale und verwandelt sie in ein Format, das wichtige Merkmale hervorhebt. Diese Transformation ermöglicht es dem Modell, Muster zu erkennen, die mit Herzgeräuschen im Gegensatz zu gesunden Herzgeräuschen verbunden sind.

Neuronale Netzwerke zur Erkennung

In dieser Studie wurden drei Arten von neuronalen Netzwerken getestet: ein eindimensionales Faltungsneuronales Netzwerk (1D CNN), ein Long Short-Term Memory rekurrentes neuronales Netzwerk (LSTM RNN) und ein Faltungs-Rekurrentes neuronales Netzwerk (C-RNN).

  • 1D CNN: Dieses Modell ist speziell dafür ausgelegt, Datensequenzen zu verarbeiten, was es geeignet für die Audioanalyse macht. Es lernt, Muster in den Herzgeräuschen zu erkennen, wie zum Beispiel zwischen normalen Geräuschen und Geräuschen zu unterscheiden.

  • LSTM RNN: Dieses Modell ist hervorragend darin, Beziehungen in Zeitreihendaten zu lernen, was entscheidend für die PCG-Analyse ist. Es kann wichtige Informationen aus vorherigen Geräuschen speichern, was bei der richtigen Klassifizierung hilft.

  • C-RNN: Dieses Modell kombiniert Merkmale von CNN und RNN und nutzt sowohl räumliche als auch zeitliche Informationen, um Herzgeräusche zu identifizieren.

Experimente und Ergebnisse

Die Modelle wurden mehreren Experimenten unterzogen, um ihre Leistung zu bewerten. Die Ergebnisse zeigten, dass das 1D CNN bei der Erkennung von Herzgeräuschen besser abschnitt als andere Modelle. Hier sind einige wichtige Ergebnisse aus den Experimenten:

  1. Experiment E1: Verwendete den ursprünglichen PCG 2022 Datensatz. Das 1D CNN erreichte eine Genauigkeit von 82,28 % und eine Fläche unter der Empfangs-Operating-Charakteristik-Kurve (AUROC) von 90,79 %, was auf eine gute Leistung bei der Identifizierung von Herzgeräuschen hinweist.

  2. Experiment E2: In diesem Fall wurden unbekannte Klassen entfernt, was die Genauigkeit des Modells auf 87,05 % verbesserte.

  3. Experiment E3: Konzentrierte sich auf eine bereinigte Version des PCG-Datensatzes nach dem Umlabeln der Segmente. Die Ergebnisse zeigten eine Genauigkeit von 82,86 % und eine gewogene Genauigkeit von 86,30 %, was die Fähigkeit zur korrekten Erkennung von Herzgeräuschen verbesserte.

  4. Experiment E4: Dieses Experiment befasste sich mit der Erkennung abnormaler PCGs mit dem 2016er Datensatz und erzielte eine bemerkenswerte Genauigkeit von 96,30 %.

Vergleich mit bestehenden Methoden

Die Leistung der Deep Learning Modelle wurde mit anderen modernen Methoden verglichen. Das 1D CNN übertraf konstant die anderen Modelle und zeigte seine starke Fähigkeit, Herzgeräusche genau zu klassifizieren.

Bedeutung der automatischen Erkennung

Die automatische Erkennung von Herzgeräuschen kann entscheidend für die frühe Diagnose von Herzklappenerkrankungen sein. Diese Probleme frühzeitig zu erkennen, kann Gesundheitsprofis helfen, rechtzeitig zu handeln und möglicherweise Leben zu retten.

Zukünftige Richtungen

Obwohl diese Arbeit vielversprechende Ergebnisse zeigte, gibt es noch mehrere Bereiche, in denen Verbesserungen möglich sind. Zukünftige Forschungen könnten darin bestehen, Methoden zu entwickeln, die Geräusche genauer klassifizieren, einschliesslich der Einstufung ihrer Schwere. Ausserdem könnte die Erstellung synthetischer PCG-Daten helfen, das Training der Deep Learning Modelle zu verbessern, insbesondere da hochwertige echte Daten begrenzt sein können.

Fazit

Deep Learning bietet einen leistungsstarken Ansatz zur Erkennung von Herzgeräuschen und anderen Anomalien in Herzgeräuschen. Durch die Nutzung fortschrittlicher Techniken wie Wavelet Scattering Transform und massgeschneiderter neuronaler Netzwerke hat die Studie gezeigt, wie automatisierte Systeme Gesundheitsprofis effektiv bei der Diagnose von Herzklappenerkrankungen unterstützen können. Mit der fortschreitenden Technologie hat die Integration Künstlicher Intelligenz in die medizinische Diagnostik grosses Potenzial zur Verbesserung der Patientenversorgung und -ergebnisse.

Originalquelle

Titel: Heart Murmur and Abnormal PCG Detection via Wavelet Scattering Transform & a 1D-CNN

Zusammenfassung: Heart murmurs provide valuable information about mechanical activity of the heart, which aids in diagnosis of various heart valve diseases. This work does automatic and accurate heart murmur detection from phonocardiogram (PCG) recordings. Two public PCG datasets (CirCor Digiscope 2022 dataset and PCG 2016 dataset) from Physionet online database are utilized to train and test three custom neural networks (NN): a 1D convolutional neural network (CNN), a long short-term memory (LSTM) recurrent neural network (RNN), and a convolutional RNN (C-RNN). We first do pre-processing which includes the following key steps: denoising, segmentation, re-labeling of noise-only segments, data normalization, and time-frequency analysis of the PCG segments using wavelet scattering transform. We then conduct four experiments, first three (E1-E3) using PCG 2022 dataset, and fourth (E4) using PCG 2016 dataset. It turns out that our custom 1D-CNN outperforms other two NNs (LSTM-RNN and C-RNN). Further, our 1D-CNN model outperforms the related work in terms of accuracy, weighted accuracy, F1-score and AUROC, for experiment E3 (that utilizes the cleaned and re-labeled PCG 2022 dataset). As for experiment E1 (that utilizes the original PCG 2022 dataset), our model performs quite close to the related work in terms of weighted accuracy and F1-score.

Autoren: Ahmed Patwa, Muhammad Mahboob Ur Rahman, Tareq Y. Al-Naffouri

Letzte Aktualisierung: 2024-05-24 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2303.11423

Quell-PDF: https://arxiv.org/pdf/2303.11423

Lizenz: https://creativecommons.org/licenses/by/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Mehr von den Autoren

Ähnliche Artikel