Simple Science

La science de pointe expliquée simplement

# Informatique# Vision par ordinateur et reconnaissance des formes

Avancées dans la création de portraits 3D réalistes

Une nouvelle méthode améliore les portraits 3D réalistes sous un éclairage changeant.

― 6 min lire


Portraits 3D dynamiquesPortraits 3D dynamiquesdébloqués3D réalistes sous différentes lumières.Une nouvelle méthode crée des portraits
Table des matières

Créer des Portraits 3D réalistes de personnes qui peuvent bouger et montrer différentes Expressions, c'est un vrai défi en infographie. La technologie récente a amélioré notre façon de capturer et de recréer ces portraits, mais beaucoup de méthodes existantes galèrent avec les changements de lumière, surtout dans des situations réelles où la lumière peut varier énormément. Cet article parle d'une nouvelle méthode conçue pour surmonter ces problèmes, rendant plus facile la création de portraits 3D réalistes que n'importe qui peut contrôler.

Le défi du réalisme

Quand on capture le visage d'une personne en mouvement, c'est super important de garder un éclairage constant pour que l'avatar 3D ait l'air naturel. Dans une vidéo, quand une personne tourne la tête ou change d'expression, les ombres et les lumières sur son visage changent aussi. Garder un look uniforme peut être galère. Les systèmes traditionnels partent du principe que la lumière reste constante, mais en vrai, ça change souvent, menant à des erreurs dans l'apparence du modèle 3D.

Notre solution

La nouvelle méthode introduit un système qui se concentre sur la création de portraits 3D qui ont l'air réels sous différentes conditions d'éclairage. Contrairement aux techniques précédentes, cette méthode comprend comment la lumière interagit avec le visage et peut ajuster le portrait en conséquence. Ça se fait grâce à un modèle d'apparence dynamique qui change avec les variations de lumière.

Apprendre l'éclairage dynamique

Le système apprend à ajuster l'apparence du portrait en fonction des conditions d'éclairage présentes lors de la capture d'une vidéo. En prédisant comment la lumière affecte le portrait selon les positions et mouvements de la tête, il peut créer des ombres et des lumières qui semblent justes. Cela se fait avec un type de réseau qui traite différents facteurs, comme la position de la tête et les expressions faciales.

Utiliser les connaissances existantes

Pour mieux prédire comment le visage interagit avec la lumière, la méthode utilise des connaissances préalables de modèles établis. Ces modèles donnent une idée générale de l'apparence d'une tête humaine sous différents angles et Éclairages. En combinant ces infos existantes avec de nouvelles données provenant des captures vidéo, le système peut faire de meilleures Prédictions sur l'apparence de chaque partie du visage.

Fonctionnalité du système

Cette méthode utilise plusieurs étapes clés pour créer des portraits 3D à partir de Vidéos :

  1. Capturer des données : On prend une courte vidéo d'une personne avec un smartphone. Cette vidéo contient différentes expressions et positions de tête.

  2. Déformer le visage : Le système suit le mouvement de la tête dans la vidéo et ajuste le modèle 3D pour correspondre à ces mouvements. Il utilise un modèle qui comprend comment le visage change de forme avec différentes expressions.

  3. Ajustement pour l'éclairage : Le système évalue constamment l'éclairage dans la vidéo et ajuste l'apparence du portrait en temps réel pour que les ombres, les lumières et les couleurs restent naturels, peu importe comment la personne bouge.

  4. Rendu du portrait : Après avoir traité la vidéo d'entrée, la méthode rend le portrait final d'une manière qui capture les nuances de l'expression humaine et les effets de la lumière de façon réaliste.

Avantages par rapport aux méthodes précédentes

Beaucoup de méthodes existantes ont eu du mal avec les conditions d'éclairage changeantes, ce qui a mené à des images peu réalistes ou floues. Notamment, certains modèles 3D se concentrent uniquement sur les expressions faciales en ignorant comment la lumière change avec la position de la tête. En revanche, cette méthode combine efficacement ces deux aspects, ce qui donne des résultats beaucoup plus crédibles.

Prédictions précises

En conditionnant le modèle sur des facteurs comme la position de la tête et les expressions faciales, il peut faire des prédictions précises sur l'apparence du visage dans différents scénarios d'éclairage. Ça contraste avec les anciennes méthodes, qui produisaient souvent des résultats qui avaient l'air peu naturels sous un éclairage dur ou changeant.

Apprentissage normal dynamique

Une des caractéristiques qui se démarquent dans cette méthode, c'est comment elle prédit les normales de surface. Les normales sont importantes pour calculer comment la lumière interagit avec les surfaces. En apprenant les normales de manière dynamique à partir de la vidéo, le système peut générer un ombrage plus réaliste sur le visage, améliorant ainsi le réalisme global du portrait.

Applications

Cette technologie a plein d'applications potentielles :

  • Réalité augmentée (AR) : Dans les applis AR, des avatars 3D réalistes peuvent améliorer l'expérience utilisateur, rendant les interactions plus authentiques.

  • Film et animation : Ce système peut être utilisé dans le cinéma pour créer des animations de personnages réalistes sans configurations complexes.

  • Jeux vidéo : Les jeux peuvent bénéficier d'interactions réalistes entre les personnages, rendant les expériences plus immersives.

  • Télécommunications : Des avatars lifelike en temps réel peuvent améliorer les réunions virtuelles et les interactions, rendant la communication plus personnelle.

Limitations

Malgré ces avancées, la méthode a des limites. Les portraits 3D sont spécifiques à chaque sujet, ce qui signifie qu'un nouveau modèle doit être entraîné pour différentes personnes. De plus, le processus d'entraînement nécessite une grande quantité de données vidéo, ce qui le rend moins faisable pour des configurations casuals ou rapides.

Conclusion

Cette nouvelle approche pour créer des portraits 3D dynamiques offre des possibilités excitantes. En gérant efficacement les défis posés par les changements de lumière et en combinant des modèles faciaux existants avec des ajustements en temps réel, elle ouvre la porte à des interactions virtuelles plus réalistes. Avec des recherches et développements continus, cette technologie a le potentiel d'améliorer significativement notre façon de créer et d'interagir avec des représentations numériques des gens.

Source originale

Titre: Controllable Dynamic Appearance for Neural 3D Portraits

Résumé: Recent advances in Neural Radiance Fields (NeRFs) have made it possible to reconstruct and reanimate dynamic portrait scenes with control over head-pose, facial expressions and viewing direction. However, training such models assumes photometric consistency over the deformed region e.g. the face must be evenly lit as it deforms with changing head-pose and facial expression. Such photometric consistency across frames of a video is hard to maintain, even in studio environments, thus making the created reanimatable neural portraits prone to artifacts during reanimation. In this work, we propose CoDyNeRF, a system that enables the creation of fully controllable 3D portraits in real-world capture conditions. CoDyNeRF learns to approximate illumination dependent effects via a dynamic appearance model in the canonical space that is conditioned on predicted surface normals and the facial expressions and head-pose deformations. The surface normals prediction is guided using 3DMM normals that act as a coarse prior for the normals of the human head, where direct prediction of normals is hard due to rigid and non-rigid deformations induced by head-pose and facial expression changes. Using only a smartphone-captured short video of a subject for training, we demonstrate the effectiveness of our method on free view synthesis of a portrait scene with explicit head pose and expression controls, and realistic lighting effects. The project page can be found here: http://shahrukhathar.github.io/2023/08/22/CoDyNeRF.html

Auteurs: ShahRukh Athar, Zhixin Shu, Zexiang Xu, Fujun Luan, Sai Bi, Kalyan Sunkavalli, Dimitris Samaras

Dernière mise à jour: 2023-09-21 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2309.11009

Source PDF: https://arxiv.org/pdf/2309.11009

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires