Migliorare la chiarezza delle immagini ecografiche per gli algoritmi di intelligenza artificiale
I ricercatori trovano metodi per pulire le immagini ad ultrasuoni per migliorare le prestazioni dell'AI.
― 6 leggere min
Indice
Quando i medici usano le Immagini ecografiche per controllare la salute di un bambino, spesso vedono informazioni come testi o misurazioni su quelle immagini. Queste informazioni extra possono confondere i programmi informatici progettati per aiutare a prendere decisioni basate sulle immagini. Se i programmi vengono addestrati su immagini che hanno queste informazioni aggiuntive, potrebbero non funzionare bene quando si trovano di fronte a immagini più pulite che non le hanno. Questo è un problema perché molte immagini ecografiche raccolte negli ospedali includono questo tipo di informazioni extra.
Il Problema delle Informazioni Extra
Il testo e le annotazioni nelle immagini ecografiche possono compromettere la performance dei programmi informatici, noti come algoritmi di deep learning. Questi programmi cercano schemi e fanno previsioni basate sulle immagini che analizzano. Se vengono addestrati con immagini che includono segni extra, potrebbero diventare distorti o imprecisi quando si trovano di fronte a immagini senza questi segni.
Per esempio, nella rilevazione del cancro della pelle, i ricercatori hanno scoperto che le immagini con righelli disegnati su di esse portavano a previsioni migliori rispetto a quelle senza righelli. Questo suggerisce che le informazioni extra potrebbero influenzare il processo di apprendimento del programma in modi non desiderati. Allo stesso modo, il testo e gli strumenti di misurazione nelle immagini ecografiche fetali possono avere un effetto confondente simile.
Importanza dei Dati Clinici
Le immagini ecografiche raccolte in contesti clinici sono piene di potenzialità. Rappresentano scenari reali e forniscono un sacco di informazioni che possono aiutare ad addestrare i programmi di imaging medico. Tuttavia, poiché le immagini spesso contengono dettagli extra come testi, è difficile sapere quanto bene i programmi possano imparare e fare previsioni accurate. Dopotutto, queste immagini devono essere il più pulite possibile affinché i programmi possano fare il loro miglior lavoro.
Per risolvere questo problema, i ricercatori si sono concentrati su modi per rimuovere testi e segni indesiderati da queste immagini ecografiche, assicurandosi che il processo di addestramento sia efficace e che le performance del programma siano affidabili.
Metodi per Rimuovere le Informazioni Extra
I ricercatori hanno testato diversi metodi per rimuovere o coprire i segni extra nelle immagini ecografiche. Hanno mirato a vedere quale metodo funzionasse meglio per migliorare la capacità dei programmi di deep learning di capire i piani standard nelle immagini ecografiche fetali.
Tecniche di Rimozione Basiche
I metodi semplici si sono concentrati sul rilevamento del testo e dei segni extra e poi sulla loro sostituzione o rimozione. Il testo e i segni erano spesso gialli, rendendoli più facili da trovare. Utilizzando strumenti di rilevamento dei colori, i ricercatori potevano creare una maschera attorno agli elementi indesiderati e poi riempire quelle aree con qualcos'altro. Ecco alcune delle strategie che hanno adottato:
Sostituzione con Scatole Nere: Hanno coperto i segni indesiderati con scatole nere sagomate per adattarsi alle aree rilevate.
Sostituzione con Rumore: Invece di usare solo scatole nere, hanno preso pixel vicini che non erano segnati e usato il loro colore medio per riempire le aree dove c'erano i segni. Questo metodo ha aiutato a nascondere il fatto che qualcosa era stato rimosso.
Interpolazione Bilineare: Questa tecnica ha aiutato a mescolare i pixel circostanti nelle aree rimosse per creare un aspetto più naturale.
Inpainting a Marcia Veloce: Questo metodo avanzato è stato usato per riempire gli spazi lasciati dai segni rimossi, rendendo le immagini più armoniose.
Approcci Avanzati con Deep Learning
Dopo aver provato questi metodi più semplici, i ricercatori sono passati a modelli di deep learning che mirano a rimuovere direttamente i segni indesiderati. Hanno usato strumenti come U-Net e Reti Avversarie Generative (GAN).
U-Net: Questo modello è stato addestrato per creare immagini senza segni extra fin dall'inizio. Ha imparato a ricreare le immagini basandosi su esempi ed è stato affinato durante l'addestramento.
GAN: Questi sono modelli potenti che possono imparare a rimuovere il testo dalle immagini in modo efficace. Funzionano generando nuove immagini basate su schemi che osservano nei dati di addestramento. I ricercatori hanno addestrato questi modelli su immagini modificate dove i segni indesiderati erano stati aggiunti di nuovo dopo la pulizia, aiutando il modello a imparare i migliori modi per rimuoverli.
Test dei Risultati
Per capire quanto bene funzionassero questi metodi, i ricercatori hanno condotto diversi test utilizzando vari gruppi di immagini. Hanno confrontato le immagini che avevano ancora i segni con quelle che erano state pulite con i metodi descritti. L'obiettivo era vedere se i programmi potevano riconoscere meglio i piani necessari-specificamente la testa, l'addome e il femore del feto-con le immagini pulite rispetto a quelle che avevano ancora il testo e i segni extra.
Dati di Addestramento
Le immagini utilizzate per i test provenivano da un database nazionale di screening ecografici fetali. Questo set di dati è stato selezionato con attenzione per includere sia immagini con informazioni extra che senza. I ricercatori hanno prestato particolare attenzione alla qualità delle immagini nel set di dati, sapendo che le immagini senza segni extra potrebbero non rappresentare la migliore qualità disponibile.
Risultati Chiave
Dopo aver testato vari metodi, i ricercatori hanno scoperto che qualsiasi tentativo di rimuovere le informazioni extra generalmente migliorava le performance dei programmi di deep learning. Anche le tecniche più semplici hanno funzionato sorprendentemente bene, suggerendo che a volte metodi meno complessi possono dare buoni risultati senza bisogno di soluzioni sofisticate.
Curiosamente, i ricercatori hanno notato che sebbene i modelli di deep learning potessero essere più veloci durante l'analisi delle immagini, richiedevano comunque molto tempo per l'addestramento. D'altra parte, i metodi tradizionali potevano eguagliare la loro velocità se implementati bene.
I ricercatori hanno anche osservato che le immagini prive di segni extra avevano ancora performance leggermente inferiori rispetto a quelle contenenti segni. Questo potrebbe essere dovuto al fatto che le immagini più chiare non erano sempre della migliore qualità poiché non erano state scelte come i migliori esempi dal personale clinico.
Conclusione
L'obiettivo di questa ricerca era sviluppare metodi migliori per preparare le immagini ecografiche per l'uso negli algoritmi di deep learning. Concentrandosi sulla rimozione delle informazioni extra che spesso esistono in queste immagini, hanno trovato modi per aiutare gli algoritmi a fare previsioni migliori.
Questo studio ha evidenziato l'importanza di utilizzare dati clinici reali e le sfide che ne derivano. Mentre è allettante pensare che potremmo sempre raccogliere dati puliti da soli, l'enorme volume e varietà di informazioni disponibili nei database nazionali li rendono inestimabili per addestrare modelli di deep learning efficaci.
Concentrandosi sul perfezionamento del modo in cui gestiamo i dati rumorosi, i ricercatori sperano di costruire modelli più robusti che possano affrontare questioni confondenti nell'imaging medico. Questo lavoro non solo migliora l'accuratezza dell'analisi ecografica fetale, ma contribuisce anche al campo più ampio della diagnostica medica.
Titolo: Removing confounding information from fetal ultrasound images
Estratto: Confounding information in the form of text or markings embedded in medical images can severely affect the training of diagnostic deep learning algorithms. However, data collected for clinical purposes often have such markings embedded in them. In dermatology, known examples include drawings or rulers that are overrepresented in images of malignant lesions. In this paper, we encounter text and calipers placed on the images found in national databases containing fetal screening ultrasound scans, which correlate with standard planes to be predicted. In order to utilize the vast amounts of data available in these databases, we develop and validate a series of methods for minimizing the confounding effects of embedded text and calipers on deep learning algorithms designed for ultrasound, using standard plane classification as a test case.
Autori: Kamil Mikolaj, Manxi Lin, Zahra Bashir, Morten Bo Søndergaard Svendsen, Martin Tolsgaard, Anders Nymark, Aasa Feragen
Ultimo aggiornamento: 2023-03-24 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2303.13918
Fonte PDF: https://arxiv.org/pdf/2303.13918
Licenza: https://creativecommons.org/licenses/by/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.