Simple Science

Scienza all'avanguardia spiegata semplicemente

# La biologia# Bioingegneria

Progressi nella segmentazione dell'area glottica usando il deep learning

Studiare la segmentazione dell'area glottica per un'analisi migliore delle immagini mediche.

Andreas M. Kist, Sina Razi, René Groh, Florian Gritsch, Anne Schützenberger

― 7 leggere min


Deep LearningDeep Learningnell'imaging laringeocon tecniche AI avanzate.Migliorare la segmentazione glottale
Indice

La Segmentazione Semantica è un termine fighissimo che significa guardare le immagini e capire cosa c'è a livello di pixel. Immagina di guardare una foto del tuo piatto preferito e di riuscire a capire che la carne è proprio quella che desideri, il broccolo è verde e sano, e il purè di patate aspetta solo di essere divorato. Nel mondo della medicina, questa tecnica è super importante per identificare le diverse parti del corpo, come tessuti e organi, nelle immagini delle scansioni mediche.

Nel campo dell'endoscopia laringea, che si occupa di controllare le corde vocali, una delle aree principali su cui concentrarsi è l'area glottica. È come il palcoscenico dove le corde vocali si esibiscono vibrando per produrre suono. È fondamentale che i dottori capiscano come appare e si comporta questa zona, proprio come un direttore d'orchestra deve conoscere la sua orchestra.

Il Ruolo del Deep Learning

Il deep learning ha davvero cambiato le regole del gioco in questo campo. È come dare a un computer un cervello per imparare a riconoscere tutti quei pezzi nelle immagini. I ricercatori hanno usato sia metodi tradizionali che queste tecniche intelligenti di intelligenza artificiale per riconoscere automaticamente l'area glottica nei video di endoscopia, che di solito scorrono a velocità pazzesca. Con così tanti fotogrammi che volano via-circa 4.000 al secondo-avere un computer che aiuta è una grande boccata d'aria per i dottori già abbastanza impegnati.

Misurare il Successo: L'Importanza delle Metriche di Qualità

Ora, come facciamo a sapere se il computer sta facendo un buon lavoro nell’identificare l’area glottica? Ecco dove entrano in gioco i punteggi. Due punteggi comuni sono il punteggio Dice e il punteggio Intersection over Union (IoU). Funzionano confrontando ciò che il computer pensa sia l'area glottica con ciò che dicono gli esperti. Più alto è il punteggio, meglio è-tutti amano un bel punteggio, giusto?

Un punteggio IoU perfetto è 1, e anche se suona bene, ottenerlo non è così semplice. Gli esperti hanno scoperto che di solito riescono a ottenere una media di circa 0.772, che non è male, ma neanche perfetta. Dobbiamo ricordare, però, che sebbene un punteggio alto sia fantastico, non dice sempre quanto siano utili i risultati in un contesto medico reale.

Trovare i Problemi

Alti punteggi sono fantastici, ma cosa succede quando i punteggi non raggiungono le aspettative? È qui che le cose si fanno serie. C’è uno studio che suggerisce che, anche con punteggi un po' più bassi del perfetto, l'analisi dell'area glottica potrebbe funzionare comunque bene. Tuttavia, se diverse persone danno lo stesso punteggio rimane un mistero.

In questo studio, abbiamo esaminato quanto siano coerenti le diverse persone mentre segnano l'area glottica. Per farlo, sei valutatori addestrati hanno provato a annotare le stesse immagini più volte. Hanno segnato ciò che pensavano fossero le aree segmentate e poi abbiamo potuto controllare quanto le loro opinioni fossero allineate.

L'Esperimento: Come Abbiamo Fatto

Per avviare lo studio, abbiamo usato un set di dati specifico noto come Benchmark for Automatic Glottis Segmentation (BAGLS). I valutatori si sono messi al lavoro con le loro missioni di annotazione e hanno creato le loro versioni di come appariva l'area glottica, che poi abbiamo confrontato.

Abbiamo anche sviluppato un sistema di previsione speciale per stimare automaticamente la qualità delle segmentazioni. Perché? Così i clinici possono facilmente vedere dove potrebbero esserci problemi. Immagina un sistema di semaforo dove il verde significa "tutto ok," il giallo significa "procedi con cautela," e il rosso significa "fermati subito!" Questa indicazione visiva potrebbe essere super utile per i dottori mentre valutano i risultati e prendono decisioni.

Il Processo di Generazione degli Artefatti

Per rendere le cose più interessanti, abbiamo creato degli “artefatti” (che sono solo errori fighi, in realtà) nei dati per vedere quanto bene il nostro sistema potesse gestire situazioni meno che perfette. Abbiamo preso le nostre immagini dell'area glottica e abbiamo aggiunto un pizzico di caos-come rendere i bordi più sfocati e aggiungere un po' di rumore casuale. In questo modo, abbiamo potuto scoprire se il nostro sistema potesse ancora prevedere accuratamente i punteggi, anche nelle situazioni disordinate del mondo reale che affrontano i dottori.

Quindi, quando abbiamo aggiunto il nostro rumore randomizzato e fatto altre regolazioni alle immagini, abbiamo potuto vedere quanto bene il nostro sistema di previsione della qualità potesse determinare la realtà del punteggio.

Controllare l'Affidabilità: Quanto Siamo Coerenti?

Successivamente, abbiamo guardato quanto fossero coerenti i nostri valutatori tra di loro e con le loro stesse valutazioni. In parole semplici, volevamo sapere se i valutatori si trovavano sulla stessa lunghezza d'onda mentre guardavano la stessa immagine più e più volte. Risultato? C'era qualche variazione, ma è normale quando ci sono di mezzo gli umani.

In media, le valutazioni erano ragionevolmente coerenti con un punteggio di affidabilità inter-valutatore di circa 0.70 e un punteggio di affidabilità intra-valutatore di circa 0.77. Questo significa che mentre c'è un certo accordo tra le opinioni esperte, c'è anche un po' di margine di manovra, che potrebbe portare a differenze nelle interpretazioni dei risultati.

Deep Learning in Aiuto

Abbiamo poi rivolto la nostra attenzione agli strumenti fighi del deep learning per assistere i nostri valutatori. Utilizzando modelli ben noti come MobileNet e EfficientNet, abbiamo programmato il computer per prevedere i punteggi IoU basati sulle immagini annotate.

L'obiettivo era scoprire quale tipo di input-solo immagini di endoscopia, solo maschere di segmentazione, o una combinazione di entrambi-funzionasse meglio per prevedere il punteggio IoU. È emerso che usare sia le immagini che le maschere insieme portava alle previsioni migliori. I nostri modelli di previsione in generale hanno performato abbastanza bene, mostrando anche una certa capacità di prevedere i punteggi meglio di alcuni valutatori umani.

Il Sistema Semaforo per una Valutazione Facile

Una volta ottenute le nostre previsioni, abbiamo progettato un sistema di semaforo per semplificare le cose per i clinici. Questo sistema colorava i fotogrammi in base ai punteggi IoU previsti. Un fotogramma verde segnala che tutto sembra a posto, il giallo indica che potrebbero esserci alcuni problemi, e il rosso avverte che le cose necessitano di particolare attenzione.

Questo strumento visivo può dare ai clinici una rapida panoramica delle performance dei vari modelli mentre guardano un video. Dopotutto, chi non vuole vedere le cose in un formato facile da capire?

L'Applicazione nel Mondo Reale e Considerazioni Future

Attraverso il nostro studio, abbiamo dimostrato che il nostro sistema di deep learning può essere piuttosto utile nelle impostazioni cliniche, in particolare nel contesto degli esami laringei. Anche se non sostituisce completamente i professionisti addestrati, offre una mano d'aiuto evidenziando i fotogrammi in cui ci sono preoccupazioni e aiutando a tenere traccia della qualità della segmentazione.

Tuttavia, è importante sottolineare che ci sono ancora delle sfide. Ad esempio, quando l'area segmentata è troppo piccola, le previsioni possono oscillare un po’. Un po’ come cercare di bilanciare un cucciolo piccolissimo sulla testa-è complicato! Migliorare i nostri modelli per gestire meglio queste situazioni sarà fondamentale in futuro.

Conclusione: Mettere Tutto Insieme

In conclusione, il nostro studio si è concentrato su come possiamo migliorare la qualità della segmentazione dell'area glottica, valutare l'affidabilità dei valutatori umani e prevedere la qualità della segmentazione utilizzando il machine learning. La nostra ricerca evidenzia l'interessante equilibrio tra l'esperienza umana e l'intelligenza artificiale.

Continuando a perfezionare le nostre tecniche, il nostro obiettivo è far funzionare meglio insieme i sistemi manuali e automatizzati. Dottori più felici significano una migliore assistenza ai pazienti. Quindi, che si tratti di un algoritmo fidato o di un valutatore esperto, l'obiettivo finale è sfruttare il meglio di entrambi i mondi per assicurare che quando si tratta dell'area glottica, tutti possano colpire la nota giusta!

Fonte originale

Titolo: Predicting semantic segmentation quality in laryngeal endoscopy images

Estratto: Endoscopy is a major tool for assessing the physiology of inner organs. Contemporary artificial intelligence methods are used to fully automatically label medical important classes on a pixel-by-pixel level. This so-called semantic segmentation is for example used to detect cancer tissue or to assess laryngeal physiology. However, due to the diversity of patients presenting, it is necessary to judge the segmentation quality. In this study, we present a fully automatic system to evaluate the segmentation performance in laryngeal endoscopy images. We showcase on glottal area segmentation that the predicted segmentation quality represented by the intersection over union metric is on par with human raters. Using a traffic light system, we are able to identify problematic segmentation frames to allow human-in-the-loop improvements, important for the clinical adaptation of automatic analysis procedures.

Autori: Andreas M. Kist, Sina Razi, René Groh, Florian Gritsch, Anne Schützenberger

Ultimo aggiornamento: 2024-11-15 00:00:00

Lingua: English

URL di origine: https://www.biorxiv.org/content/10.1101/2024.11.14.623604

Fonte PDF: https://www.biorxiv.org/content/10.1101/2024.11.14.623604.full.pdf

Licenza: https://creativecommons.org/licenses/by/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia biorxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Articoli simili