Rimozione Efficace della Pioggia dalle Immagini
Un metodo in due fasi per rimuovere la pioggia dalle immagini per una visibilità migliore.
― 5 leggere min
Indice
La pioggia può rendere le immagini sfocate e poco chiare, rendendo difficile capire cosa c'è dentro. Questo problema è comune in molti settori, dalla fotografia alla guida fino ai videogiochi. Questo articolo parla di un metodo creato per rendere le immagini più chiare dopo che sono state influenzate dalla pioggia. L'obiettivo è sviluppare un sistema che possa rimuovere con successo la pioggia dalle immagini, anche quelle molto bagnate o nebbiose.
Metodi Utilizzati
Il metodo discusso qui è un processo in due fasi. Nella prima fase, utilizziamo una tecnica che guarda più fotogrammi di un video per identificare ed eliminare la pioggia. Questa tecnica aiuta a combinare informazioni da diverse immagini scattate allo stesso tempo ma con diversi schemi di pioggia. L'idea è di creare una nuova immagine più chiara che funga da guida per la fase successiva.
Nella seconda fase, prendiamo un modello chiamato Uformer, che è speciale per lavorare con le immagini. Questo modello viene prima addestrato su un grande dataset di immagini piovose reali per imparare come risolvere i problemi di pioggia. Dopo questo addestramento iniziale, il modello viene quindi perfezionato usando le nuove immagini create nella prima fase per migliorarle ulteriormente.
Oltre a queste due fasi, c'è anche una parte di elaborazione delle immagini alla fine. Questa parte serve a rendere l'immagine finale più attraente. Regola il contrasto e la nitidezza per migliorare la qualità complessiva dell'immagine.
Analisi del Dataset
Per questo compito, abbiamo usato 15 sequenze video diverse che presentano varie scene, sia urbane che naturali. Ogni sequenza è composta da 300 fotogrammi piovosi che forniscono una buona quantità di informazioni per il nostro metodo.
Allineamento di Background
Ogni sequenza ha fotogrammi in cui lo sfondo rimane invariato, il che significa che possiamo allinearli correttamente. Questo allineamento è cruciale per far funzionare bene il nostro metodo. Assicurandoci che lo sfondo sia stabile, possiamo concentrarci sulla rimozione della pioggia senza perdere dettagli importanti nell'immagine.
Distribuzione dei Valori Pixel
Abbiamo anche esaminato come i valori pixel sono distribuiti tra le diverse scene. Ad esempio, gli edifici spesso hanno una vasta gamma di valori pixel a causa della loro natura strutturata, mentre le scene naturali, come alberi e erba, tendono ad avere valori pixel più concentrati. Comprendere queste distribuzioni ci aiuta quando applichiamo le nostre tecniche di elaborazione dell'immagine.
Effetto Velante
Un altro problema che affrontiamo è l'effetto velante, che si verifica quando sia la pioggia che la foschia oscurano l'immagine. Questo può rendere ancora più difficile ripristinare l'immagine al suo stato originale. Dobbiamo essere cauti nel nostro approccio dato che i metodi tradizionali potrebbero non affrontare efficacemente entrambi i tipi di degrado.
Il Processo in Due Fasi
Fase Uno: Creare la Pseudo Verità di Terra
Nella prima fase, generiamo un'immagine di riferimento, spesso chiamata pseudo verità di terra (GT), utilizzando un metodo che analizza più fotogrammi piovosi. Questo processo ci aiuta a creare un'immagine più chiara che serve da punto di riferimento per la fase successiva. Il metodo basato su low-rank che usiamo è più efficace rispetto alla semplice media perché preserva la struttura dell'immagine mentre rimuove la pioggia.
Fase Due: Ripristino dell'Immagine con Uformer
Nella seconda fase, applichiamo il modello Uformer alla pseudo GT creata nella prima fase. Questo modello è addestrato su un ampio dataset di immagini piovose reali, il che lo aiuta a comprendere i vari modi in cui la pioggia può influenzare un'immagine. Affinando il nostro modello sulla pseudo GT generata, ci assicuriamo che il modello possa concentrarsi sulle sfide specifiche presentate dalle immagini nel nostro set di test.
Importanza dell'Elaborazione delle Immagini
Anche dopo le prime due fasi, c'è potenziale per ulteriori miglioramenti. Il modulo di elaborazione delle immagini gioca un ruolo vitale qui regolando il contrasto e la nitidezza delle immagini. Questo modulo utilizza tecniche comunemente trovate nei software di editing delle immagini per rendere i risultati finali più attraenti.
Per il Miglioramento del contrasto, applichiamo una tecnica che regola come le aree chiare e scure dell'immagine sono rappresentate. Questo fa sì che gli elementi dell'immagine risaltino meglio. Per la nitidezza, usiamo un metodo che migliora i bordi, assicurandoci che i dettagli non vengano persi nel processo di rimozione della pioggia.
Risultati
Il nostro approccio ha mostrato risultati impressionanti sia in misure quantitative che qualitative. Abbiamo ottenuto il primo posto in termini di Indice di Somiglianza Strutturale (SSIM) e il secondo posto per quanto riguarda il rapporto segnale-rumore di picco (PSNR) nella competizione a cui abbiamo partecipato. Questi metriche sono importanti perché mostrano quanto le nostre immagini ripristinate assomiglino a immagini chiare e senza pioggia.
Visualizzazione dei Risultati
Guardando ai risultati del nostro metodo, possiamo vedere notevoli miglioramenti nella qualità dell'immagine. Le immagini prodotte dal nostro metodo in due fasi mantengono i dettagli e le strutture importanti, mentre rimuovono efficacemente gli effetti di pioggia e foschia.
Studio di Ablazione
Per assicurarci che il nostro metodo funzioni in modo efficiente, abbiamo condotto uno studio di ablazione per vedere come ogni parte del nostro processo contribuisce ai risultati finali. Abbiamo trovato che il metodo di rimozione della pioggia basato su low-rank ha superato le aspettative rispetto alla semplice media. Il modulo di elaborazione delle immagini ha fatto una differenza notevole, aiutando a perfezionare l'output. Il modello Uformer pre-addestrato ha potuto utilizzare le conoscenze apprese e migliorare la pseudo GT generata nella prima fase.
Lavori Futuri
Guardando avanti, c'è ancora spazio per miglioramenti. Le ricerche future possono concentrarsi su modi ancora più efficienti per gestire la rimozione della pioggia. Questo potrebbe comportare esperimenti con altri modelli o affinamenti ai nostri metodi attuali per affrontare meglio le varie condizioni meteorologiche.
Conclusione
Il metodo di rimozione della pioggia in due fasi descritto qui fornisce una soluzione robusta per ripristinare immagini colpite dalla pioggia. Combinando tecniche avanzate sia nella rimozione della pioggia nei video che nell'elaborazione delle immagini, possiamo migliorare efficacemente la qualità delle immagini che soffrono di pioggia e foschia. I risultati ottenuti nelle competizioni confermano l'efficacia del nostro approccio, e le intuizioni guadagnate dalla nostra analisi guideranno futuri miglioramenti in questo campo.
Titolo: A Two-Stage Real Image Deraining Method for GT-RAIN Challenge CVPR 2023 Workshop UG$^{\textbf{2}}$+ Track 3
Estratto: In this technical report, we briefly introduce the solution of our team HUST\li VIE for GT-Rain Challenge in CVPR 2023 UG$^{2}$+ Track 3. In this task, we propose an efficient two-stage framework to reconstruct a clear image from rainy frames. Firstly, a low-rank based video deraining method is utilized to generate pseudo GT, which fully takes the advantage of multi and aligned rainy frames. Secondly, a transformer-based single image deraining network Uformer is implemented to pre-train on large real rain dataset and then fine-tuned on pseudo GT to further improve image restoration. Moreover, in terms of visual pleasing effect, a comprehensive image processor module is utilized at the end of pipeline. Our overall framework is elaborately designed and able to handle both heavy rainy and foggy sequences provided in the final testing phase. Finally, we rank 1st on the average structural similarity (SSIM) and rank 2nd on the average peak signal-to-noise ratio (PSNR). Our code is available at https://github.com/yunguo224/UG2_Deraining.
Autori: Yun Guo, Xueyao Xiao, Xiaoxiong Wang, Yi Li, Yi Chang, Luxin Yan
Ultimo aggiornamento: 2023-05-13 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2305.07979
Fonte PDF: https://arxiv.org/pdf/2305.07979
Licenza: https://creativecommons.org/licenses/by-sa/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.