Criando Avatares 3D a partir de Imagens 2D
Um novo método gera avatares 3D usando só imagens 2D.
― 5 min ler
Índice
Criar Avatares 3D realistas a partir de Imagens 2D é uma tarefa desafiadora. Muitas aplicações precisam de modelos 3D que possam se mover e parecer reais. No entanto, os métodos existentes muitas vezes requerem muitos dados 3D detalhados, que são difíceis de encontrar e caros. Este artigo discute uma nova abordagem que aprende a gerar avatares 3D usando apenas imagens 2D disponíveis online.
O Problema
Com o avanço da tecnologia, mais pessoas querem criar avatares 3D animados de si mesmas ou de outras pessoas. Essa demanda levou a pesquisas em métodos que transformam imagens planas em modelos 3D cheios de vida. As maneiras tradicionais de fazer esses modelos precisam de digitalizações 3D detalhadas, que podem ser caras e limitadas. Há uma necessidade de um novo método que funcione apenas com as muitas imagens 2D que já temos.
Nossa Abordagem
Apresentamos um novo sistema que aprende a criar avatares 3D de alta qualidade a partir de uma coleção de imagens 2D. Esse método captura tanto a aparência quanto a forma das pessoas, incluindo suas Roupas. Ele usa um design único que combina um gerador 3D completo com uma maneira flexível de lidar com os movimentos do corpo, especialmente para roupas soltas.
Como Funciona
Nosso método começa com um conjunto de números aleatórios, chamado vetor latente. A partir desse vetor, o sistema cria a forma e a aparência de uma pessoa em um espaço padrão. Então, ele usa outro processo para mudar essa forma em uma pose específica que o usuário deseja.
Renderização Rápida
Para gerar as imagens rapidamente, adicionamos uma técnica especial chamada "pular espaço vazio". Isso significa que o sistema pode ignorar partes da imagem que não mostram a pessoa, ajudando a acelerar o processo.
Compreendendo o Movimento das Roupas
Uma das partes complicadas de criar avatares 3D é garantir que as roupas se movam naturalmente. Nós projetamos nosso sistema para modelar melhor como as roupas se movem no corpo. Usando uma maneira específica de alterar as formas, conseguimos criar roupas que parecem reais e se movem corretamente, mesmo que sejam soltas, como vestidos.
Melhorando a Qualidade
Para fazer os avatares parecerem o mais realistas possível, usamos várias técnicas. Treinamos nosso sistema com vários discriminadores que checam a qualidade das imagens. Esses discriminadores analisam diferentes partes das imagens e garantem que tanto a pessoa inteira quanto detalhes importantes, como o rosto, fiquem bons.
Mapas Normais 2D
Nós também usamos mapas normais especiais, que ajudam a melhorar a forma 3D dos avatares. Comparando nossos mapas normais gerados com os reais, orientamos o processo de aprendizado para produzir resultados melhores. Isso ajuda a garantir que as formas geradas não tenham buracos ou artefatos.
Resultados
Testamos nosso sistema contra métodos mais antigos e constatamos que ele produziu imagens e formas de qualidade superior. Nos testes, as pessoas preferiram nossas imagens geradas em relação às de outros métodos.
Imagens Realistas
Ao visualizar nossas imagens, você pode ver detalhes claros como padrões de roupas e traços faciais realistas. Os avatares gerados podem ser movidos para diferentes poses e ainda assim ficam bonitos. As transições entre poses e perspectivas parecem suaves e consistentes.
Roupas Soltas
Nosso método se destaca na geração de roupas soltas sem falhas estranhas. Comparado a outros métodos que têm dificuldades com isso, nossa abordagem oferece um visual mais fluido e natural.
Estudos com Usuários
Para avaliar ainda mais nosso método, realizamos estudos com usuários, onde muitos participantes escolheram nossas imagens em vez das de abordagens concorrentes. Isso destaca a eficácia dos nossos designs e técnicas.
Desafios e Limitações
Apesar de nosso método mostrar grande potencial, ainda há desafios. As imagens 2D usadas para treinamento muitas vezes carecem de diversidade em formas corporais, tons de pele e estilos. Como resultado, alguns avatares gerados podem não capturar toda a variedade da diversidade humana.
Trabalhos Futuros
Daqui pra frente, a comunidade de pesquisa deve se concentrar em coletar conjuntos de dados mais variados ou encontrar maneiras de reduzir os preconceitos nos dados de treinamento. Isso ajudará a melhorar o desempenho dos nossos modelos para todos os tipos de pessoas.
Conclusão
Resumindo, nosso novo sistema cria com sucesso avatares 3D de alta qualidade a partir de imagens 2D. O método captura efetivamente tanto a aparência quanto o movimento, especialmente para roupas soltas. Usando técnicas avançadas e discriminadores especializados, estabelecemos um novo padrão na criação de modelos humanos 3D sem precisar de dados 3D caros. Acreditamos que, com mais melhorias e conjuntos de dados mais amplos, essa tecnologia pode levar a gerações de avatares ainda mais realistas e diversas no futuro.
Título: AG3D: Learning to Generate 3D Avatars from 2D Image Collections
Resumo: While progress in 2D generative models of human appearance has been rapid, many applications require 3D avatars that can be animated and rendered. Unfortunately, most existing methods for learning generative models of 3D humans with diverse shape and appearance require 3D training data, which is limited and expensive to acquire. The key to progress is hence to learn generative models of 3D avatars from abundant unstructured 2D image collections. However, learning realistic and complete 3D appearance and geometry in this under-constrained setting remains challenging, especially in the presence of loose clothing such as dresses. In this paper, we propose a new adversarial generative model of realistic 3D people from 2D images. Our method captures shape and deformation of the body and loose clothing by adopting a holistic 3D generator and integrating an efficient and flexible articulation module. To improve realism, we train our model using multiple discriminators while also integrating geometric cues in the form of predicted 2D normal maps. We experimentally find that our method outperforms previous 3D- and articulation-aware methods in terms of geometry and appearance. We validate the effectiveness of our model and the importance of each component via systematic ablation studies.
Autores: Zijian Dong, Xu Chen, Jinlong Yang, Michael J. Black, Otmar Hilliges, Andreas Geiger
Última atualização: 2023-05-03 00:00:00
Idioma: English
Fonte URL: https://arxiv.org/abs/2305.02312
Fonte PDF: https://arxiv.org/pdf/2305.02312
Licença: https://creativecommons.org/licenses/by/4.0/
Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.
Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.