Simple Science

Scienza all'avanguardia spiegata semplicemente

# Informatica# Visione artificiale e riconoscimento di modelli

Creare avatar 3D da immagini 2D

Un nuovo metodo genera avatar 3D usando solo immagini 2D.

― 4 leggere min


Avatar 3D da immagini 2DAvatar 3D da immagini 2Dmodo efficiente.Nuovo metodo crea avatar realistici in
Indice

Creare Avatar 3D realistici partendo da Immagini 2D è un compito difficile. Molte applicazioni hanno bisogno di modelli 3D che possano muoversi e sembrare veri. Tuttavia, i metodi esistenti richiedono spesso una gran quantità di dati 3D dettagliati, che è difficile trovare e costosi. Questo articolo parla di un nuovo approccio che impara a generare avatar 3D usando solo immagini 2D disponibili online.

Il Problema

Con l'avanzare della tecnologia, sempre più persone vogliono creare avatar 3D animati di se stessi o di altri. Questa richiesta ha spinto la ricerca verso metodi che trasformano immagini piatte in modelli 3D vivaci. I metodi tradizionali per creare questi modelli necessitano di scansioni 3D dettagliate, che possono essere costose e limitate. C'è bisogno di un nuovo metodo che possa funzionare solo con le molte immagini 2D che abbiamo già.

Il Nostro Approccio

Presentiamo un nuovo sistema che impara a creare avatar 3D di alta qualità da una raccolta di immagini 2D. Questo metodo cattura sia l'aspetto che la forma delle persone, incluse le loro vestiti. Usa un design unico che combina un generatore 3D completo con un modo flessibile di gestire i movimenti del corpo, soprattutto per i vestiti larghi.

Come Funziona

Il nostro metodo inizia con un insieme di numeri casuali, chiamato vettore latente. Da questo vettore, il sistema crea la forma e l’aspetto di una persona in uno spazio standard. Poi, utilizza un altro processo per trasformare questa forma in una posa specifica che l’utente desidera.

Rendering Veloce

Per rendere le immagini rapidamente, abbiamo aggiunto una tecnica speciale chiamata "salto nello spazio vuoto". Questo significa che il sistema può ignorare parti dell'immagine che non mostrano la persona, aiutando a velocizzare il processo.

Comprendere il Movimento dei Vestiti

Uno degli aspetti complicati nella creazione di avatar 3D è assicurarsi che i vestiti si muovano naturalmente. Abbiamo progettato il nostro sistema per modellare meglio come si muovono i vestiti sul corpo. Utilizzando un modo specifico per cambiare le forme, possiamo creare vestiti che sembrano veri e si muovono correttamente, anche se sono larghi, come i vestiti da sera.

Migliorare la Qualità

Per rendere gli avatar il più realistici possibile, utilizziamo varie tecniche. Alleniamo il nostro sistema usando diversi discriminatori che controllano quanto sono buone le immagini. Questi discriminatori esaminano parti diverse delle immagini e assicurano che sia l'intera persona che i dettagli importanti, come il viso, sembrino buoni.

Mappe Normali 2D

Utilizziamo anche mappe normali speciali, che aiutano a migliorare la forma 3D degli avatar. Confrontando le nostre mappe normali generate con quelle reali, guidiamo il processo di apprendimento per ottenere risultati migliori. Questo aiuta a garantire che le forme generate non abbiano buchi o artefatti.

Risultati

Abbiamo testato il nostro sistema contro metodi più vecchi e abbiamo scoperto che produce immagini e forme di qualità superiore. Nei test, le persone hanno preferito le nostre immagini generate rispetto a quelle di altri metodi.

Immagini Realistiche

Quando guardi le nostre immagini, puoi vedere dettagli chiari come i pattern dei vestiti e le caratteristiche facciali realistiche. Gli avatar generati possono essere messi in diverse pose e sembrare comunque belli. Le transizioni tra pose e prospettive appaiono fluide e coerenti.

Vestiti Larghi

Il nostro metodo è eccezionale nel generare vestiti larghi senza strani glitch. Rispetto ad altri metodi che hanno difficoltà con questo, il nostro approccio offre un aspetto più fluido e naturale.

Studi sugli Utenti

Per valutare ulteriormente il nostro metodo, abbiamo condotto studi sugli utenti in cui molti partecipanti hanno scelto le nostre immagini rispetto a quelle di approcci concorrenti. Questo evidenzia l'efficacia dei nostri design e tecniche.

Sfide e Limitazioni

Sebbene il nostro metodo mostri grandi potenzialità, ci sono ancora delle sfide. Le immagini 2D utilizzate per l'allenamento spesso mancano di diversità in termini di forme del corpo, tonalità della pelle e stili. Di conseguenza, alcuni avatar generati potrebbero non catturare appieno l'ampia gamma di diversità umana.

Lavoro Futuro

Andando avanti, la comunità di ricerca dovrebbe concentrarsi sulla raccolta di dataset più vari o sulla ricerca di modi per ridurre i bias nei dati di addestramento. Questo aiuterà a far funzionare meglio i nostri modelli per tutti i tipi di persone.

Conclusione

In sintesi, il nostro nuovo sistema crea con successo avatar 3D di alta qualità a partire da immagini 2D. Il metodo cattura efficacemente sia l'aspetto che il movimento, in particolare per i vestiti larghi. Utilizzando tecniche avanzate e discriminatori specializzati, abbiamo stabilito un nuovo standard nella creazione di modelli umani 3D senza bisogno di dati 3D costosi. Crediamo che con ulteriori miglioramenti e dataset più ampi, questa tecnologia possa portare a generazioni di avatar ancora più realistiche e diversificate in futuro.

Fonte originale

Titolo: AG3D: Learning to Generate 3D Avatars from 2D Image Collections

Estratto: While progress in 2D generative models of human appearance has been rapid, many applications require 3D avatars that can be animated and rendered. Unfortunately, most existing methods for learning generative models of 3D humans with diverse shape and appearance require 3D training data, which is limited and expensive to acquire. The key to progress is hence to learn generative models of 3D avatars from abundant unstructured 2D image collections. However, learning realistic and complete 3D appearance and geometry in this under-constrained setting remains challenging, especially in the presence of loose clothing such as dresses. In this paper, we propose a new adversarial generative model of realistic 3D people from 2D images. Our method captures shape and deformation of the body and loose clothing by adopting a holistic 3D generator and integrating an efficient and flexible articulation module. To improve realism, we train our model using multiple discriminators while also integrating geometric cues in the form of predicted 2D normal maps. We experimentally find that our method outperforms previous 3D- and articulation-aware methods in terms of geometry and appearance. We validate the effectiveness of our model and the importance of each component via systematic ablation studies.

Autori: Zijian Dong, Xu Chen, Jinlong Yang, Michael J. Black, Otmar Hilliges, Andreas Geiger

Ultimo aggiornamento: 2023-05-03 00:00:00

Lingua: English

URL di origine: https://arxiv.org/abs/2305.02312

Fonte PDF: https://arxiv.org/pdf/2305.02312

Licenza: https://creativecommons.org/licenses/by/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Altro dagli autori

Articoli simili