Sviluppi nell'analisi automatizzata degli sferoidi tumorali
Nuovo metodo migliora l'analisi delle immagini per la ricerca sul cancro.
― 7 leggere min
Indice
I tumori sferoidi multicellulari (MCTS) sono gruppi di cellule tumorali che imitano come i tumori crescono nel corpo. I ricercatori studiano questi sferoidi per capire come funzionano i diversi trattamenti e per migliorare la terapia per il cancro. Possono mostrare come il cancro risponde a varie terapie in un modo simile ai tumori reali. Gli scienziati spesso guardano a questi sferoidi usando un tipo speciale di microscopio per vedere come cambiano di dimensione nel tempo e quanto sono efficaci i trattamenti.
Per analizzare questi sferoidi, è importante misurare accuratamente la loro dimensione, forma e volume. Questo processo di solito comporta la visione di migliaia di Immagini, il che può richiedere molto tempo. Molti metodi esistenti per analizzare queste immagini funzionano bene quando gli sferoidi sono compatti e hanno bordi chiari. Tuttavia, dopo il trattamento, gli sferoidi possono diventare danneggiati, mescolati con cellule morte o difficili da vedere. Questo può rendere difficile misurare le loro caratteristiche con precisione.
Questo lavoro mira a creare un modo più avanzato e automatizzato per segmentare (o isolare) gli sferoidi dalle loro immagini. Vogliamo assicurarci che il nostro metodo possa analizzare sia gli sferoidi non trattati che quelli trattati, anche quando sono difficili da vedere a causa dei detriti cellulari.
Metodi
Abbiamo addestrato due tipi di reti neurali, U-Net e HRNet, per segmentare automaticamente le immagini di MCTS trattati e non trattati. Queste reti sono state addestrate su immagini di sferoidi prese da linee cellulari di cancro della testa e del collo umano. Dopo l'addestramento, abbiamo testato il nostro metodo su gruppi separati di immagini che non erano state utilizzate nella fase di addestramento.
Durante il test, la maggior parte delle immagini mostrava una grande corrispondenza tra le misurazioni manuali e la Segmentazione automatica, con un punteggio di somiglianza di circa il 90%. Nei casi in cui la segmentazione era meno precisa, abbiamo scoperto che gli errori erano simili a quelli trovati quando diversi esperti analizzavano le stesse immagini. Questo suggerisce che alcune immagini erano semplicemente difficili da interpretare, piuttosto che indicare una scarsa performance del metodo automatico.
La nostra segmentazione automatizzata può essere utilizzata da sola o integrata in strumenti di Analisi esistenti, rendendo più facile valutare i risultati degli esperimenti e standardizzare i metodi in diversi contesti di ricerca.
Importanza dello Studio degli Sferoidi Tumorali
Sviluppare trattamenti efficaci per il cancro è una grande sfida nella ricerca medica. I ricercatori spesso usano sferoidi tumorali multicellulari 3D (MCTS) come modelli per studiare la crescita del cancro e la risposta ai trattamenti. Questi sferoidi possono replicare alcune caratteristiche dei tumori reali, come come le cellule interagiscono tra loro e con il loro ambiente, il che può influenzare come rispondono alle terapie.
A differenza delle culture cellulari tradizionali 2D, gli MCTS forniscono una rappresentazione più realistica di come si comportano i tumori nel corpo. Sono composti da molte migliaia di cellule tumorali organizzate in strutture che possono imitare come funzionano i tumori. I ricercatori possono usare questi modelli per indagare gli effetti di diversi trattamenti, come radioterapia e chemioterapia, in un ambiente controllato.
Monitorare come questi sferoidi crescono e rispondono al trattamento comporta spesso di prendere immagini dettagliate nel tempo. Valutare queste immagini aiuta i ricercatori a classificare gli sferoidi in base ai loro schemi di crescita e risposte ai trattamenti.
La Sfida dell'Analisi delle Immagini
Quando si studiano gli effetti delle terapie sugli MCTS, è cruciale analizzare accuratamente un gran numero di immagini. Ogni esperimento può coinvolgere diverse dosi di trattamento, tipi di cellule e diverse condizioni nel corso di settimane o mesi. Un tipico set di esperimenti può produrre migliaia di immagini, rendendo l'analisi manuale impraticabile.
Gli strumenti esistenti per analizzare le immagini degli sferoidi si basano di solito su metodi classici, che possono fallire quando gli sferoidi non sono compatti o hanno forme irregolari. La presenza di cellule morte o detriti può offuscare gli sferoidi, rendendo difficile ottenere misurazioni affidabili.
Per affrontare queste sfide, miriamo a sviluppare un sistema automatizzato che identifichi con precisione i confini degli sferoidi in immagini complesse. Questo comporta classificare ogni pixel in un'immagine per determinare se appartiene a uno sferoide o meno. Utilizzando modelli di Deep Learning, possiamo migliorare l'accuratezza dell'analisi delle immagini, anche in presenza di detriti.
Addestramento dei Modelli di Deep Learning
Per creare il nostro metodo di segmentazione automatica, abbiamo addestrato due diversi modelli di deep learning, U-Net e HRNet. Questi modelli sono stati scelti per la loro capacità di gestire efficacemente dati di immagini complessi.
L'addestramento ha coinvolto l'alimentazione dei modelli con migliaia di immagini etichettate, dove degli esperti avevano già segnato i confini degli sferoidi. Abbiamo regolato diversi parametri per ottimizzare i modelli e assicurarci che funzionassero bene in varie condizioni di immagine.
Dopo l'addestramento, abbiamo convalidato i modelli su nuove immagini per confermare la loro efficacia. I risultati hanno mostrato un'alta accuratezza nella segmentazione degli sferoidi dalle immagini, anche quando erano parzialmente oscurati da detriti.
Valutazione della Segmentazione Automatica
L'accuratezza del nostro metodo di segmentazione è stata valutata usando vari metriche. Per la maggior parte delle immagini, il metodo automatizzato corrispondeva da vicino alle segmentazioni manuali effettuate da esperti. Questo è significativo poiché molti ricercatori si affidano a misurazioni coerenti e accurate per trarre conclusioni dai loro studi.
Quando abbiamo valutato casi specifici in cui la segmentazione era meno precisa, abbiamo scoperto che gli errori erano spesso comparabili alle differenze che si verificavano tra diversi esperti che analizzavano la stessa immagine. Questo indica che il nostro metodo automatizzato può essere altrettanto affidabile quanto l'analisi umana in situazioni difficili.
Vantaggi del Metodo Automatizzato
Il metodo di segmentazione automatica che abbiamo sviluppato offre diversi vantaggi per i ricercatori che studiano gli sferoidi tumorali:
Efficienza Temporale: Riduce la necessità di analisi manuale delle immagini, consentendo ai ricercatori di analizzare rapidamente grandi set di immagini.
Standardizzazione: Aiuta a garantire che il processo di analisi sia coerente in diversi esperimenti e team di ricerca.
Integrazione: Il nostro metodo può essere facilmente incluso nei flussi di lavoro esistenti, migliorando gli strumenti di analisi attuali senza richiedere una revisione completa.
Gestione di Casi Complessi: Il modello è specificamente addestrato per comprendere e identificare sferoidi che possono essere difficili da analizzare a causa di detriti sovrapposti o danni.
Sfide e Lavoro Futuro
Sebbene la nostra segmentazione automatica mostri un'alta accuratezza, ci sono ancora sfide da affrontare. Ad esempio, il sistema si basa su immagini scattate in condizioni specifiche. Gli sviluppi futuri si concentreranno sul miglioramento della capacità del modello di generalizzare attraverso varie condizioni di imaging, assicurandosi che rimanga efficace in diversi contesti di ricerca.
Ulteriori perfezionamenti permetteranno al metodo di gestire un intervallo più ampio di tipi di sferoidi e obiettivi di analisi. Man mano che continuiamo a testare e migliorare i nostri metodi, prevediamo applicazioni più ampie nella ricerca sul cancro e nei campi correlati.
Conclusione
La segmentazione automatica degli sferoidi tumorali rappresenta un significativo progresso nella ricerca sul cancro. Fornendo un modo affidabile ed efficiente per analizzare immagini complesse, possiamo comprendere meglio il comportamento dei tumori e la loro risposta ai trattamenti.
I nostri modelli di deep learning, in particolare U-Net e HRNet, hanno mostrato risultati promettenti, indicando che l'automazione può migliorare notevolmente l'analisi degli sferoidi multicellulari. Supportando valutazioni più rapide e accurate, questo metodo può alla fine contribuire allo sviluppo di terapie efficaci contro il cancro.
Titolo: Image segmentation of treated and untreated tumor spheroids by Fully Convolutional Networks
Estratto: Multicellular tumor spheroids (MCTS) are advanced cell culture systems for assessing the impact of combinatorial radio(chemo)therapy. They exhibit therapeutically relevant in-vivo-like characteristics from 3D cell-cell and cell-matrix interactions to radial pathophysiological gradients related to proliferative activity and nutrient/oxygen supply, altering cellular radioresponse. State-of-the-art assays quantify long-term curative endpoints based on collected brightfield image time series from large treated spheroid populations per irradiation dose and treatment arm. Here, spheroid control probabilities are documented analogous to in-vivo tumor control probabilities based on Kaplan-Meier curves. This analyses require laborious spheroid segmentation of up to 100.000 images per treatment arm to extract relevant structural information from the images, e.g., diameter, area, volume and circularity. While several image analysis algorithms are available for spheroid segmentation, they all focus on compact MCTS with clearly distinguishable outer rim throughout growth. However, treated MCTS may partly be detached and destroyed and are usually obscured by dead cell debris. We successfully train two Fully Convolutional Networks, UNet and HRNet, and optimize their hyperparameters to develop an automatic segmentation for both untreated and treated MCTS. We systematically validate the automatic segmentation on larger, independent data sets of spheroids derived from two human head-and-neck cancer cell lines. We find an excellent overlap between manual and automatic segmentation for most images, quantified by Jaccard indices at around 90%. For images with smaller overlap of the segmentations, we demonstrate that this error is comparable to the variations across segmentations from different biological experts, suggesting that these images represent biologically unclear or ambiguous cases.
Autori: Matthias Streller, Soňa Michlíková, Willy Ciecior, Katharina Lönnecke, Leoni A. Kunz-Schughart, Steffen Lange, Anja Voss-Böhme
Ultimo aggiornamento: 2024-11-29 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2405.01105
Fonte PDF: https://arxiv.org/pdf/2405.01105
Licenza: https://creativecommons.org/licenses/by/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.
Link di riferimento
- https://wwwpub.zih.tu-dresden.de/~s6079592/
- https://www.mdpi.com/2072-6694/15/23/5645
- https://dx.doi.org/10.3390/cancers15235645
- https://www.nature.com/articles/s41598-019-54117-x
- https://dx.doi.org/10.1038/s41598-019-54117-x
- https://www.nature.com/articles/s41598-020-58569-4
- https://dx.doi.org/10.1038/s41598-020-58569-4
- https://doi.org/10.1186/s13046-017-0570-9
- https://dx.doi.org/10.1186/s13046-017-0570-9
- https://dx.doi.org/10.1007/978-3-319-26666-4_10
- https://www.sciencedirect.com/science/article/pii/S0168165610000398
- https://dx.doi.org/10.1016/j.jbiotec.2010.01.012
- https://doi.org/10.1080/09553000701727531
- https://dx.doi.org/10.1080/09553000701727531
- https://doi.org/10.1177/1087057104265040
- https://dx.doi.org/10.1177/1087057104265040
- https://www.nature.com/articles/s41567-020-0978-6
- https://dx.doi.org/10.1038/s41567-020-0978-6
- https://www.jstor.org/stable/3570400
- https://dx.doi.org/10.2307/3570400
- https://www.dovepress.com/the-role-of-hypoxia-in-cancer-progression-angiogenesis-metastasis-and--peer-reviewed-fulltext-article-HP
- https://dx.doi.org/10.2147/HP.S93413
- https://www.frontiersin.org/articles/10.3389/fendo.2021.742215
- https://www.cambridge.org/core/journals/expert-reviews-in-molecular-medicine/article/abs/exploring-hypoxic-biology-to-improve-radiotherapy-outcomes/A367ECCBE52B8E6D5D5B81FAC7C92B30
- https://dx.doi.org/10.1017/erm.2022.14
- https://www.nature.com/articles/s41592-021-01291-4
- https://dx.doi.org/10.1038/s41592-021-01291-4
- https://doi.org/10.1007/s00018-020-03704-7
- https://dx.doi.org/10.1007/s00018-020-03704-7
- https://www.mdpi.com/2072-6694/13/13/3168
- https://dx.doi.org/10.3390/cancers13133168
- https://mct.aacrjournals.org/content/17/2/393
- https://dx.doi.org/10.1158/1535-7163.MCT-16-0807
- https://onlinelibrary.wiley.com/doi/abs/10.1002/ijc.26221
- https://dx.doi.org/10.1002/ijc.26221
- https://www.sciencedirect.com/science/article/pii/S0167814021060874
- https://dx.doi.org/10.1016/j.radonc.2021.02.024
- https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0079865
- https://dx.doi.org/10.1371/journal.pone.0079865
- https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0103817
- https://dx.doi.org/10.1371/journal.pone.0103817
- https://www.sciencedirect.com/science/article/pii/S247263032201384X
- https://dx.doi.org/10.1177/2211068215607058
- https://doi.org/10.1186/s12859-017-1934-z
- https://dx.doi.org/10.1186/s12859-017-1934-z
- https://onlinelibrary.wiley.com/doi/abs/10.1002/biot.201700140
- https://dx.doi.org/10.1002/biot.201700140
- https://www.nature.com/articles/s41598-018-29169-0
- https://dx.doi.org/10.1038/s41598-018-29169-0
- https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4212916/
- https://dx.doi.org/10.3791/51639
- https://www.sciencedirect.com/science/article/pii/S0169260715000309
- https://dx.doi.org/
- https://doi.org/10.1016/j.cmpb.2015.02.006
- https://www.worldscientific.com/doi/abs/10.1142/S0219519423400341
- https://dx.doi.org/10.1142/S0219519423400341
- https://www.nature.com/articles/s41598-018-25337-4
- https://dx.doi.org/10.1038/s41598-018-25337-4
- https://www.sciencedirect.com/science/article/pii/S0169260720316709
- https://dx.doi.org/10.1016/j.cmpb.2020.105837
- https://www.mdpi.com/1422-0067/23/6/3217
- https://dx.doi.org/10.3390/ijms23063217
- https://dx.doi.org/10.1109/CIBCB48159.2020.9277638
- https://ieeexplore.ieee.org/document/366472
- https://dx.doi.org/10.1109/83.366472
- https://ieeexplore.ieee.org/document/4310076
- https://dx.doi.org/10.1109/TSMC.1979.4310076
- https://content.iospress.com/articles/fundamenta-informaticae/fi41-1-2-07
- https://dx.doi.org/10.3233/FI-2000-411207
- https://dl.acm.org/doi/10.1145/361237.361242
- https://dx.doi.org/10.1145/361237.361242
- https://doi.org/10.1023/A:1007979827043
- https://dx.doi.org/10.1023/A:1007979827043
- https://www.nature.com/articles/srep35099
- https://dx.doi.org/10.1038/srep35099
- https://doi.org/10.1186/1741-7007-10-29
- https://dx.doi.org/10.1186/1741-7007-10-29
- https://www.sciencedirect.com/science/article/pii/S2472555222076341
- https://dx.doi.org/10.1177/1087057111432885
- https://ieeexplore.ieee.org/document/8265222
- https://dx.doi.org/10.1109/ICCVW.2017.11
- https://www.nature.com/articles/srep03751
- https://dx.doi.org/10.1038/srep03751
- https://www.future-science.com/doi/10.2144/000114609
- https://dx.doi.org/10.2144/000114609
- https://www.sciencedirect.com/science/article/pii/S2590006423002806
- https://dx.doi.org/10.1016/j.mtbio.2023.100820
- https://doi.org/10.1007/s10278-022-00660-5
- https://dx.doi.org/10.1007/s10278-022-00660-5
- https://doi.org/10.1093/gigascience/giad082
- https://dx.doi.org/10.1093/gigascience/giad082
- https://www.sciencedirect.com/science/article/pii/S0925231223012286
- https://dx.doi.org/10.1016/j.neucom.2023.127105
- https://www.mdpi.com/2078-2489/11/2/108
- https://dx.doi.org/10.3390/info11020108
- https://pypi.org/project/SemTorch/#description
- https://www.computer.org/csdl/proceedings-article/cvpr/2015/07298965/12OmNy49sME
- https://dx.doi.org/10.1109/CVPR.2015.7298965
- https://dx.doi.org/10.1007/978-3-319-24574-4_28
- https://dx.doi.org/10.1109/TPAMI.2020.2983686
- https://arxiv.org/abs/1803.09820
- https://dx.doi.org/10.48550/arXiv.1803.09820
- https://www.sciencedirect.com/science/article/pii/0734189X85900167
- https://dx.doi.org/10.1016/0734-189X
- https://arxiv.org/abs/1412.6980
- https://dx.doi.org/10.48550/arXiv.1412.6980
- https://arxiv.org/abs/1908.03265
- https://dx.doi.org/10.48550/arXiv.1908.03265
- https://proceedings.neurips.cc/paper/2019/hash/90fd4f88f588ae64038134f1eeaa023f-Abstract.html
- https://www.mdpi.com/2078-2489/11/2/125
- https://dx.doi.org/10.3390/info11020125
- https://onnxruntime.ai/