Transfert de pose innovant pour des personnages stylisés
Une nouvelle méthode simplifie l'animation pour des personnages stylisés uniques sans configurations compliquées.
― 9 min lire
Table des matières
Dans le monde de l'animation, des films et des jeux vidéo, créer des mouvements réalistes pour des personnages stylisés, c'est un vrai défi. Ces personnages sont souvent conçus par des artistes et peuvent avoir des formes, tailles et caractéristiques uniques. Cela rend le transfert de poses d'un personnage à un autre assez compliqué, car chaque personnage a sa propre manière de bouger. La méthode traditionnelle implique de créer un "rig", comme un squelette, qui aide à guider les mouvements. Mais ce processus peut être long et fastidieux.
Le Défi
Beaucoup de méthodes existantes qui aident à transférer des mouvements nécessitent que les personnages aient déjà un squelette. Ça veut dire que si un personnage n'est pas riggé, c'est galère de l'animer. D'un autre côté, certaines méthodes dépendent d'avoir le personnage dans la pose désirée pendant l'entraînement, ce qui n'est pas toujours possible.
L'objectif ici est de transférer efficacement la pose d'un personnage (souvent un modèle plus standard) à un personnage stylisé sans avoir à faire de travail supplémentaire sur sa structure.
Solution Proposée
Le but de cette approche est de développer une méthode qui peut transférer des poses sans avoir besoin d'un squelette pour le personnage à animer. On appelle ça le "zero-shot" pose transfer, ce qui signifie que ça vise à fonctionner directement avec des personnages qu'il n'a jamais vus auparavant.
Notre nouveau modèle permet de transférer une pose d'une figure humanoïde ou animale standard à un personnage stylisé juste en connaissant la forme neutre du personnage d'origine et sa pose désirée. Ça veut dire que les artistes n'ont plus besoin de rigguer manuellement les personnages ou de se soucier de configurations complexes.
Composants Clés du Modèle
Compréhension de la Forme : Cette partie aide le modèle à comprendre en détail la forme du personnage. Elle crée un code qui représente les caractéristiques du personnage. Ce code est utilisé pendant le processus de transfert de pose pour garantir que les mouvements aient l'air naturels.
Déformation de la Pose : Une fois la forme comprise, la partie déformation de la pose prend le relais. Elle ajuste la forme du personnage pour correspondre à la pose désirée en utilisant le code de forme créé précédemment. Ça se fait en changeant la position des points à la surface du personnage.
Entraînement en Temps de Test : Cet aspect innovant permet au modèle de se perfectionner pendant la phase d'utilisation réelle. Au fur et à mesure que le modèle rencontre des personnages nouveaux et inconnus, il apprend et s'améliore en temps réel.
Avantages de la Méthode
Cette méthode apporte plusieurs avantages :
Facilité d'Utilisation : En n'ayant pas besoin d'une version riggée du personnage stylisé, les animateurs peuvent travailler plus rapidement et avec plus de liberté créative.
Flexibilité : Le modèle peut s'adapter à différentes formes et tailles de personnages. Cette flexibilité signifie qu'il peut gérer tout, des figures humanoïdes aux créatures quadrupèdes comme les chiens ou les chats.
Qualité de Sortie : Les Animations résultantes maintiennent un haut niveau de qualité. Les personnages bougent de manière fluide et naturelle, ressemblant à un mouvement réel sans les glitches bizarres souvent vus dans les anciennes méthodes.
Entraînement avec des Modèles Normaux : Le processus d'entraînement implique d'utiliser des personnages normaux, qui sont souvent disponibles en grande quantité, au lieu de stylisés. Ça augmente la robustesse du modèle.
Applications Réelles
Cette nouvelle méthode peut être utilisée dans plusieurs domaines, comme :
- Développement de Jeux Vidéo : Les concepteurs de jeux peuvent rapidement animer des personnages sans les soucis de configuration précédents.
- Animation de Film : Les animateurs peuvent produire des résultats rapides pour des personnages stylisés dans des films, en maintenant les délais de production sur la bonne voie.
- Réalité Virtuelle : Créer des avatars réalistes qui se déplacent comme prévu, même dans des situations diverses.
Méthodes Existantes
Avant de parler de notre méthode, jetons un coup d'œil rapide à certaines pratiques traditionnelles et actuelles dans le transfert de poses :
1. Rigging et Skinning
La plupart des animations utilisent un processus appelé rigging, où un squelette est créé pour le personnage, permettant un mouvement structuré. Cependant, ça peut être laborieux, surtout avec des personnages stylisés uniques.
2. Transfert de Pose Utilisant des Maillages Correspondants
Certaines méthodes nécessitent d'avoir deux personnages déjà assortis l'un à l'autre. L'un est la référence, et l'autre doit avoir une manière de bouger prédéfinie. Ça limite la créativité, car l'animateur doit s'assurer que les deux personnages sont alignés avant de transférer les poses.
3. Approches Basées sur l'Apprentissage
Des techniques récentes ont commencé à utiliser des réseaux neuronaux pour aider au transfert de poses. Cependant, elles ont souvent du mal avec des personnages qui diffèrent significativement de leurs données d'entraînement. Ça limite leur efficacité quand il s'agit de personnages stylisés, qui peuvent avoir des formes complètement différentes.
Comment Notre Modèle Fonctionne
Le cœur de notre méthode repose sur la compréhension de la forme d'un personnage tout en le déformant selon les besoins. Voici comment ça se déroule :
Représentation de la Forme
Au départ, le modèle analyse la forme d'un personnage. Il construit un code interne décrivant les caractéristiques du personnage. Ce code sert de plan, guidant comment le personnage devrait bouger quand une pose est nécessaire.
Mappage de la Pose Ciblée
Ensuite, la pose désirée est mappée. Au lieu de juste transférer la pose directement, le modèle apprend les subtilités de la pose cible. Ça signifie qu'il ne se contente pas de recréer la position, mais s'adapte selon les caractéristiques uniques du personnage stylisé.
Ajustement des Points de Surface
Plutôt que d'ajuster des sections entières du corps, le modèle travaille sur des points individuels à la surface du personnage. Ce focus permet des ajustements précis qui reflètent comment le personnage devrait bouger de manière réaliste.
Apprentissage Continu pendant l'Utilisation
Au fur et à mesure que le modèle voit de nouveaux personnages, il perfectionne sa compréhension. En appliquant l'entraînement en temps de test, le modèle peut s'ajuster et maintenir sa précision, surtout lorsqu'il est confronté à des poses rares. Ça veut dire que même avec des personnages qu'il n'a jamais rencontrés auparavant, le modèle s'adapte rapidement et efficacement.
Expériments et Résultats
Pour tester l'efficacité de notre solution, divers expériences ont été menées avec différentes catégories de personnages :
1. Personnages Bipedaux
En utilisant des figures humaines stylisées, les résultats montrent que le modèle maintenait des mouvements fluides et réalistes par rapport aux méthodes établies. Les animations étaient fluides, et les erreurs de mouvement moyennes étaient minimisées significativement, soulignant l'efficacité de la nouvelle approche.
2. Personnages Quadrupèdes
Des tests similaires ont été réalisés sur des animaux stylisés comme des chiens et des chats. Là encore, notre méthode a dépassé les efforts précédents, montrant un transfert de pose précis tout en maintenant les caractéristiques uniques du personnage.
3. Personnages Stylisés avec Accessoires
Des personnages avec des chapeaux, des ailes ou d'autres accessoires ont montré une capacité remarquable à maintenir un mouvement naturel, prouvant la flexibilité et l'adaptabilité du modèle.
Limitations du Modèle
Bien que le modèle ait bien fonctionné à travers divers tests, certaines limitations ont été notées :
Accessoires Complexes : Les personnages avec de nombreux composants complexes peuvent encore rencontrer des défis en matière de précision de mouvement.
Mouvements des Mains : Le modèle traite les mains comme des parties rigides, ce qui peut ne pas permettre une articulation précise pendant des animations complexes.
Variété des Données d'Entraînement : Le modèle repose beaucoup sur la diversité de l'ensemble des données d'entraînement. Si certains types de personnages sont sous-représentés, le modèle peut ne pas bien performer.
Directions Futures
En regardant vers l'avenir, plusieurs pistes de développement sont potentielles :
Améliorer le Mouvement des Mains : Les futures itérations pourraient se concentrer sur une meilleure animation des mains et des mouvements de doigts détaillés.
Élargir les Types de Personnages : En entraînant le modèle avec une plus grande variété de types de personnages, on pourrait améliorer la généralisation et l'adaptabilité.
Incorporer l'Édition en Temps Réel : Développer des outils permettant aux animateurs de manipuler les poses en temps réel pourrait enrichir le processus créatif.
Conclusion
La nouvelle méthode de transfert de poses vers des personnages stylisés marque une avancée significative dans le domaine de l'animation. En simplifiant le processus et en permettant plus de flexibilité, les animateurs peuvent obtenir des mouvements réalistes pour une variété de types de personnages avec aisance. Cette méthode non seulement fait gagner du temps, mais ouvre aussi de nouvelles possibilités créatives, permettant des récits plus riches dans les animations, les jeux et les films. L'avenir semble prometteur alors que la méthode continue d'évoluer et de s'adapter à de nouveaux défis.
Titre: Zero-shot Pose Transfer for Unrigged Stylized 3D Characters
Résumé: Transferring the pose of a reference avatar to stylized 3D characters of various shapes is a fundamental task in computer graphics. Existing methods either require the stylized characters to be rigged, or they use the stylized character in the desired pose as ground truth at training. We present a zero-shot approach that requires only the widely available deformed non-stylized avatars in training, and deforms stylized characters of significantly different shapes at inference. Classical methods achieve strong generalization by deforming the mesh at the triangle level, but this requires labelled correspondences. We leverage the power of local deformation, but without requiring explicit correspondence labels. We introduce a semi-supervised shape-understanding module to bypass the need for explicit correspondences at test time, and an implicit pose deformation module that deforms individual surface points to match the target pose. Furthermore, to encourage realistic and accurate deformation of stylized characters, we introduce an efficient volume-based test-time training procedure. Because it does not need rigging, nor the deformed stylized character at training time, our model generalizes to categories with scarce annotation, such as stylized quadrupeds. Extensive experiments demonstrate the effectiveness of the proposed method compared to the state-of-the-art approaches trained with comparable or more supervision. Our project page is available at https://jiashunwang.github.io/ZPT
Auteurs: Jiashun Wang, Xueting Li, Sifei Liu, Shalini De Mello, Orazio Gallo, Xiaolong Wang, Jan Kautz
Dernière mise à jour: 2023-05-31 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2306.00200
Source PDF: https://arxiv.org/pdf/2306.00200
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.