Progressi nella Realtà Aumentata per la Chirurgia del Fegato
La tecnologia AR migliora la precisione nella resezione epatica laparoscopica.
― 7 leggere min
Indice
- La Necessità di Rilevamento Automatico dei Punti di Riferimento
- Panoramica della Sfida P2ILF
- La Complessità della Resezione Epatica Laparoscopica
- Metodi di Registrazione per AR in Chirurgia
- Creazione del Dataset per la Sfida
- L'Importanza dell'Etica e della Privacy
- Struttura e Valutazione della Sfida
- I Risultati della Sfida
- Intuizioni dai Team Partecipanti
- Conclusione e Direzioni Future
- Fonte originale
- Link di riferimento
La realtà aumentata (AR) è una tecnologia che migliora la nostra vista del mondo reale aggiungendo elementi digitali. Nella chirurgia epatica, specialmente durante la resezione epatica laparoscopica, l'AR aiuta i chirurghi a vedere strutture importanti come tumori e vasi sanguigni sovrapponendo immagini digitali a quello che vedono attraverso la telecamera. Questo supporto è fondamentale dato che la chirurgia richiede precisione.
In questo processo, un Modello 3D del Fegato creato da esami di imaging come TAC o risonanza magnetica viene abbinato a immagini laparoscopiche in tempo reale scattate durante l'operazione. Questo abbinamento deve essere accurato affinché il chirurgo possa prendere decisioni informate.
La Necessità di Rilevamento Automatico dei Punti di Riferimento
Una delle sfide nell'uso efficace dell'AR è la necessità di identificare punti anatomici specifici, chiamati punti di riferimento, sul fegato. I punti di riferimento comuni includono la cresta inferiore del fegato, legamenti specifici e il contorno esterno del fegato. Tradizionalmente, i chirurghi avrebbero segnato manualmente questi punti sia sul modello 3D che sulle Immagini 2D. Sfortunatamente, questo metodo richiede tempo ed è soggetto a errori, soprattutto se eseguito da qualcuno che non è esperto.
Per migliorare questo processo, i ricercatori stanno cercando modi per automatizzare il rilevamento di questi punti di riferimento. Facendo ciò, la tecnologia AR potrebbe essere meglio integrata nei flussi di lavoro chirurgici, rendendo la procedura più fluida e sicura.
Panoramica della Sfida P2ILF
La sfida Preoperative-to-Intraoperative Laparoscopic Fusion (P2ILF) è stata creata per affrontare le problematiche del rilevamento e della Registrazione dei punti di riferimento. La sfida si è svolta durante una conferenza di imaging medico e interventi assistiti da computer nel 2022 e ha invitato i team a sviluppare metodi automatici per il rilevamento dei punti di riferimento e per effettuare le registrazioni necessarie.
Questa sfida aveva due compiti:
- Rilevamento di punti di riferimento 2D e 3D.
- Registrazione dei modelli 3D preoperatori con le immagini laparoscopiche.
I partecipanti hanno ricevuto un dataset contenente immagini di interventi laparoscopici e modelli 3D dei fegati dei pazienti. Dopo la competizione, vari metodi sviluppati dai team sono stati valutati e confrontati.
La Complessità della Resezione Epatica Laparoscopica
La resezione epatica laparoscopica è un intervento chirurgico minimamente invasivo usato per rimuovere tumori dal fegato. Negli ultimi 20 anni, questa tecnica ha guadagnato popolarità per i suoi benefici, come tempi di recupero ridotti. Tuttavia, presenta ancora delle sfide, principalmente a causa dello spazio limitato all'interno dell'addome e della mancanza di feedback fisico quando si manipolano organi. Questi fattori rendono difficile localizzare i tumori con precisione, aumentando la possibilità di errori durante l'intervento.
Aggiungendo la tecnologia AR, i chirurghi possono visualizzare le strutture interne, permettendo loro di trovare tumori e altre aree critiche con maggiore accuratezza. Un metodo chiamato registrazione deformabile allinea i modelli preoperatori con i dati chirurgici in tempo reale, migliorando la capacità del chirurgo di visualizzare il campo operatorio.
Metodi di Registrazione per AR in Chirurgia
Ci sono diversi modi per registrare modelli 3D preoperatori con immagini 2D intraoperatorie. La maggior parte dei metodi utilizza punti di riferimento anatomici per aiutare il modello a adattarsi correttamente alle immagini dal vivo. Tuttavia, ci sono complicazioni in questo processo, specialmente con approcci tradizionali dove i punti di riferimento vengono segnati manualmente.
I metodi di registrazione esistenti possono allineare i dati 3D con altri dati 3D o dati 3D con immagini 2D. Nel caso della registrazione 3D-3D, alcune tecniche si basano sulla cattura della forma del fegato durante l'intervento con telecamere stereo. Sfortunatamente, queste telecamere non sono sempre disponibili nelle sale operatorie. D'altra parte, la registrazione 3D-2D è più applicabile perché utilizza il modello preoperatorio e lo abbina con immagini 2D scattate durante l'intervento.
Una grande sfida deriva dai cambiamenti anatomici che si verificano tra le fasi preoperatorie e intraoperatorie, a causa della flessibilità del fegato. Quindi, metodi di registrazione affidabili che possano adattarsi a questi cambiamenti sono essenziali.
Creazione del Dataset per la Sfida
Per supportare la sfida P2ILF, è stato creato un dataset diversificato. Questo dataset include modelli 3D preoperatori e corrispondenti immagini laparoscopiche 2D di diversi pazienti. Annotando queste immagini con punti di riferimento anatomici, i team sono stati in grado di addestrare i loro algoritmi in modo efficace.
La creazione del dataset ha comportato la cattura di scansioni 3D giorni prima dell'intervento e la registrazione video durante la procedura. I filmati video hanno aiutato a garantire che le strutture epatiche essenziali fossero incluse nelle immagini. Dopo l'intervento, le immagini rilevanti sono state selezionate e organizzate per scopi di addestramento e testing.
L'Importanza dell'Etica e della Privacy
I dati usati nella sfida sono stati raccolti da pazienti con le appropriate approvazioni etiche. Tutte le informazioni personali sono state anonimizzate per proteggere la privacy dei pazienti. I partecipanti alla sfida dovevano rispettare rigide linee guida sulla privacy, garantendo la sicurezza dei dati durante tutto il processo.
Struttura e Valutazione della Sfida
La sfida P2ILF consisteva in più fasi. Nella prima fase, i team si sono concentrati sul rilevamento dei punti di riferimento anatomici sia in immagini 2D che in modelli 3D. Nella seconda fase, l'enfasi è passata alla registrazione dei modelli preoperatori con le immagini laparoscopiche utilizzando i punti di riferimento rilevati in precedenza.
Una volta completati i compiti, le prestazioni di ciascun team sono state valutate in base a quanto accuratamente potevano rilevare i punti di riferimento e raggiungere la registrazione.
I Risultati della Sfida
Dopo la conclusione della sfida, i vari metodi proposti dai team sono stati analizzati. La maggior parte dei partecipanti ha puntato su tecniche di deep learning per il rilevamento dei punti di riferimento. I team hanno anche esplorato metodi di rendering differenziabile per la registrazione, che hanno permesso un abbinamento più sfumato tra i modelli 3D e le immagini 2D.
I risultati hanno mostrato che, sebbene ci siano stati progressi sia nei compiti di rilevamento che di registrazione, ci sono ancora sfide, soprattutto per la segmentazione dei punti di riferimento 3D. Le scoperte hanno sottolineato la necessità di ulteriori ricerche e dello sviluppo di metodi migliori per aumentare l'accuratezza richiesta per le applicazioni chirurgiche.
Intuizioni dai Team Partecipanti
Ogni team partecipante alla sfida ha portato approcci unici ai compiti.
Team BHL ha proposto un metodo che utilizzava il rilevamento automatico dei punti di riferimento attraverso il deep learning e un approccio semi-automatico per la registrazione. I loro risultati hanno mostrato potenzialità, specialmente per la segmentazione 2D.
Team UCL ha usato dati sintetici per migliorare i loro metodi di addestramento. Hanno ottenuto risultati lodevoli, in particolare nel rilevamento dei punti di riferimento 3D.
Team NCT ha combinato varie tecniche per segmentare con successo i punti di riferimento e effettuare la registrazione. Sono stati notati per il loro utilizzo efficace dell'augmentation nei dati di addestramento.
Team GRASP ha applicato un approccio in due fasi, prima segmentando il fegato e poi registrando il modello, anche se i loro risultati non erano forti come quelli di alcuni altri team.
Team VOR ha utilizzato una strategia di deep learning a più fasi ma ha affrontato limiti nel segmentare con successo i punti di riferimento.
Team VIP si è concentrato esclusivamente sul compito di segmentazione 2D, utilizzando meccanismi di attenzione per migliorare le prestazioni del loro modello.
Conclusione e Direzioni Future
La sfida P2ILF rappresenta un passo significativo verso il miglioramento dell'uso dell'AR nelle chirurgie laparoscopiche. La sfida ha evidenziato la necessità di esplorazione e innovazione continua nei metodi per il rilevamento e la registrazione dei punti di riferimento.
Con il progresso del campo, c'è una chiara necessità di dataset più grandi e diversificati che possano supportare meglio l'addestramento degli algoritmi. Un miglioramento nella disponibilità dei dati porterà a migliori algoritmi, che sono essenziali per rendere l'AR uno strumento affidabile nelle sale operatorie.
In sintesi, mentre l'AR ha un grande potenziale per la chirurgia epatica, superare le sfide relative al rilevamento e alla registrazione dei punti di riferimento è cruciale per la sua implementazione riuscita in sala operatoria. Andando avanti, i ricercatori devono concentrarsi sul perfezionamento dei propri metodi ed esplorare nuove tecniche che possano adattarsi alla natura dinamica dell'anatomia epatica durante l'intervento.
Titolo: An objective comparison of methods for augmented reality in laparoscopic liver resection by preoperative-to-intraoperative image fusion
Estratto: Augmented reality for laparoscopic liver resection is a visualisation mode that allows a surgeon to localise tumours and vessels embedded within the liver by projecting them on top of a laparoscopic image. Preoperative 3D models extracted from CT or MRI data are registered to the intraoperative laparoscopic images during this process. In terms of 3D-2D fusion, most of the algorithms make use of anatomical landmarks to guide registration. These landmarks include the liver's inferior ridge, the falciform ligament, and the occluding contours. They are usually marked by hand in both the laparoscopic image and the 3D model, which is time-consuming and may contain errors if done by a non-experienced user. Therefore, there is a need to automate this process so that augmented reality can be used effectively in the operating room. We present the Preoperative-to-Intraoperative Laparoscopic Fusion Challenge (P2ILF), held during the Medical Imaging and Computer Assisted Interventions (MICCAI 2022) conference, which investigates the possibilities of detecting these landmarks automatically and using them in registration. The challenge was divided into two tasks: 1) A 2D and 3D landmark detection task and 2) a 3D-2D registration task. The teams were provided with training data consisting of 167 laparoscopic images and 9 preoperative 3D models from 9 patients, with the corresponding 2D and 3D landmark annotations. A total of 6 teams from 4 countries participated, whose proposed methods were evaluated on 16 images and two preoperative 3D models from two patients. All the teams proposed deep learning-based methods for the 2D and 3D landmark segmentation tasks and differentiable rendering-based methods for the registration task. Based on the experimental outcomes, we propose three key hypotheses that determine current limitations and future directions for research in this domain.
Autori: Sharib Ali, Yamid Espinel, Yueming Jin, Peng Liu, Bianca Güttner, Xukun Zhang, Lihua Zhang, Tom Dowrick, Matthew J. Clarkson, Shiting Xiao, Yifan Wu, Yijun Yang, Lei Zhu, Dai Sun, Lan Li, Micha Pfeiffer, Shahid Farid, Lena Maier-Hein, Emmanuel Buc, Adrien Bartoli
Ultimo aggiornamento: 2024-02-07 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2401.15753
Fonte PDF: https://arxiv.org/pdf/2401.15753
Licenza: https://creativecommons.org/licenses/by-nc-sa/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.
Link di riferimento
- https://doi.org/10.1016/j.media.2022.102383
- https://docs.google.com/document/d/10ZUhFPu6McHXPDDNG8tdKEiB0Foou8SRnoWksIcAZkI/edit
- https://github.com/sharib-vision/P2ILF/tree/main/metrics_new_docker
- https://www.javatpoint.com/symmetric-difference-between-two-sets
- https://p2ilf.grand-challenge.org/evaluation/challenge/leaderboard/
- https://www.synapse.org/
- https://www.synapse.org/#!Synapse:syn26376620.1
- https://github.com/sharib-vision/P2ILF
- https://github.com/sharibox/EndoCV2021-polyp_det_seg_gen
- https://github.com/sharibox/PolypGen-Benchmark.git