Migliorare le catture 3D con Nerfbusters
Nerfbusters migliora le catture NeRF casuali riducendo gli artefatti e migliorando la geometria.
― 6 leggere min
Indice
Quando la gente prova a creare modelli 3D usando una tecnologia chiamata Neural Radiance Fields (NeRF), spesso si imbatte in problemi. Questi problemi si presentano quando il modello viene visto da nuovi angoli che non facevano parte delle foto originali scattate durante il processo di cattura 3D. I problemi più comuni includono oggetti fluttuanti che non dovrebbero esserci o forme che sembrano sbagliate. Questi problemi si verificano spesso nei catturamenti casuali, ma raramente si vedono nei test controllati, dove le viste vengono selezionate in modo da evitare questi problemi.
Per affrontare questi problemi, i ricercatori hanno sviluppato un nuovo metodo chiamato Nerfbusters. Questo approccio migliora la geometria del modello 3D e riduce il numero di errori, rendendo l'immagine finale molto migliore. Hanno anche raccolto un nuovo dataset con catture del mondo reale e un modo migliore per valutare quanto bene funzionano questi modelli.
Il Problema con le Catture 3D Casuali
Le catture casuali di NeRF tendono ad essere meno accurate di quelle mostrate negli articoli di ricerca professionali. Quando qualcuno fa una cattura casuale, di solito cerca di generare una vista 3D da angoli molto diversi dalle foto originali. Questo grande cambiamento di punto di vista spesso rivela problemi come artefatti fluttuanti e geometria scadente.
Un modo per risolvere questi problemi è insegnare agli utenti come scattare foto migliori. Molte app già guidano gli utenti a catturare immagini da più angoli e altezze attorno all'oggetto che vogliono modellare. Tuttavia, queste istruzioni possono essere complicate e non tutti gli utenti le seguono correttamente, portando a artefatti nel modello finale.
Un altro approccio è sviluppare algoritmi che possano far apparire meglio i NeRF quando vengono visti da angoli diversi. Tentativi precedenti hanno provato a usare regolazioni della fotocamera, cambiamenti di aspetto basati sull'illuminazione e funzioni di perdita per affrontare ostruzioni temporanee. Tuttavia, mentre questi metodi possono migliorare i risultati nei test controllati, spesso non funzionano bene quando si guarda il modello da angoli nuovi.
Creazione di un Nuovo Metodo di Valutazione
Per migliorare il modo in cui vengono valutate le catture NeRF, è stato sviluppato un nuovo protocollo. Invece di fare affidamento sulla cattura di ogni ottavo fotogramma da un singolo percorso della fotocamera, hanno proposto di registrare due catture video separate della stessa scena. Un video è per addestrare il NeRF e l'altro serve solo per testare quanto bene è in grado di generare nuove viste.
Utilizzando le immagini del secondo video come standard di confronto, i ricercatori possono calcolare diverse metriche per misurare quanto è buono il modello visto da angoli poco familiari. Hanno creato un nuovo dataset con più scene, ciascuna catturata con due percorsi di fotocamera diversi, per supportare questo metodo di valutazione.
L'Approccio Nerfbusters
Nerfbusters mira a migliorare la geometria delle catture NeRF quotidiane migliorando la coerenza della superficie e eliminando artefatti fluttuanti. Questo metodo impara da forme 3D locali utilizzando un tipo speciale di modello AI addestrato su dati sintetici. Impiegando queste informazioni apprese, il metodo incoraggia il NeRF a generare forme più accurate durante il suo addestramento.
I metodi regolari si basano spesso su informazioni ampie e globali su una scena 3D, che possono essere complesse e variare notevolmente a seconda della scena. Invece, Nerfbusters si concentra su forme geometriche locali, rendendo più facile l'applicazione e più coerente per diversi tipi di scene.
Il nuovo metodo utilizza una tecnica unica chiamata Density Score Distillation Sampling (DSDS) per guidare il NeRF verso una geometria migliore. Questo approccio aiuta a ridurre gli artefatti fluttuanti e chiarire le forme. Si distingue come un significativo progresso rispetto ai metodi tradizionali.
Come Funziona la Valutazione
Nella valutazione delle prestazioni dei NeRF, questo nuovo metodo si concentra sulla cattura di scene in due video separati. Il primo video funge da filmato di addestramento per il NeRF, mentre il secondo video viene utilizzato esclusivamente per la valutazione.
Per misurare la capacità del NeRF di generare immagini da nuovi punti di vista, il sistema estrae immagini da entrambi i video e calcola le posizioni della fotocamera per ogni immagine. Utilizzando un modello di "pseudo verità di terra", la valutazione può essere più accurata, consentendo mappe di profondità e test di visibilità per verificare quanto bene ha funzionato il NeRF.
Una parte chiave di questo processo di valutazione è mascherare le aree nelle immagini che non erano visibili nelle viste di addestramento. Questa mascheratura assicura che il modello venga testato solo su regioni che ha già visto, fornendo una misura più accurata delle sue prestazioni.
Risultati dal Metodo Nerfbusters
L'introduzione del metodo Nerfbusters mostra miglioramenti significativi nella qualità delle catture casuali. Il metodo riduce efficacemente il numero di artefatti fluttuanti e migliora la geometria complessiva delle scene.
Il processo di valutazione, quando applicato a varie scene, dimostra che Nerfbusters supera costantemente i metodi precedenti che si basavano su regole fisse per la geometria. Questo successo riflette la sua capacità di adattarsi alle sfumature delle catture reali dove i metodi tradizionali spesso falliscono.
In pratica, l'applicazione di questo nuovo metodo di valutazione e della tecnica Nerfbusters è implementata attraverso software open-source, rendendolo accessibile a hobbisti e professionisti.
Confronto con i Metodi Precedenti
Molti metodi esistenti si basano su regole fatte a mano per garantire morbidezza e coerenza nei modelli 3D. I regolarizzatori comuni si concentrano su penalità per grandi cambiamenti tra aree vicine. Tuttavia, questi metodi faticano notevolmente quando vengono introdotti nuovi punti di vista.
Al contrario, Nerfbusters utilizza un approccio appreso per regolarizzare il modello NeRF basato su dati reali. Questa strategia consente di gestire meglio le complessità e le variazioni spesso trovate nelle catture casuali. I risultati parlano da soli; Nerfbusters elimina efficacemente artefatti e affina la geometria delle scene catturate.
Direzioni Future
Sebbene il metodo Nerfbusters migliori significativamente le catture casuali di NeRF, ci sono ancora sfide da affrontare. Ad esempio, l'attuale metodo potrebbe non distinguere tra oggetti fluttuanti e superfici trasparenti, il che può portare a rimozioni indesiderate durante l'elaborazione. Inoltre, il metodo non gestisce ancora la colorazione o la modifica della texture nelle aree in cui la geometria è stata migliorata.
Il lavoro futuro potrebbe comportare lo sviluppo di tecniche per colorare le regioni in base a texture apprese, il che aiuterebbe a creare modelli più visivamente ricchi e accurati. C'è anche il potenziale per integrare metodi di inpainting 2D e 3D per aiutare a riempire le lacune dove texture o dettagli potrebbero mancare.
Conclusione
Lo sviluppo di un nuovo protocollo di valutazione e l'introduzione del metodo Nerfbusters rappresentano passi importanti avanti nel campo della cattura 3D casuale usando i NeRF. Riconoscendo le sfide affrontate dagli utenti di tutti i giorni, queste innovazioni forniscono strumenti che non solo migliorano la qualità delle catture 3D, ma rendono anche la tecnologia più accessibile a un pubblico più vasto.
Con un continuo affinamento e futuri miglioramenti, il potenziale di questa tecnologia per colmare il divario tra utenti casuali e output di qualità professionale sembra promettente. La comunità sta già iniziando a beneficiare di questi miglioramenti, mentre le implementazioni diventano disponibili per hobbisti e sviluppatori.
Titolo: Nerfbusters: Removing Ghostly Artifacts from Casually Captured NeRFs
Estratto: Casually captured Neural Radiance Fields (NeRFs) suffer from artifacts such as floaters or flawed geometry when rendered outside the camera trajectory. Existing evaluation protocols often do not capture these effects, since they usually only assess image quality at every 8th frame of the training capture. To push forward progress in novel-view synthesis, we propose a new dataset and evaluation procedure, where two camera trajectories are recorded of the scene: one used for training, and the other for evaluation. In this more challenging in-the-wild setting, we find that existing hand-crafted regularizers do not remove floaters nor improve scene geometry. Thus, we propose a 3D diffusion-based method that leverages local 3D priors and a novel density-based score distillation sampling loss to discourage artifacts during NeRF optimization. We show that this data-driven prior removes floaters and improves scene geometry for casual captures.
Autori: Frederik Warburg, Ethan Weber, Matthew Tancik, Aleksander Holynski, Angjoo Kanazawa
Ultimo aggiornamento: 2023-10-17 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2304.10532
Fonte PDF: https://arxiv.org/pdf/2304.10532
Licenza: https://creativecommons.org/licenses/by/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.