INSを使った3Dヒューマンモデリングの進展
新しい手法が服を着た人間のリアルな3Dモデリングを改善するよ。
― 1 分で読む
服を着た人間のリアルで柔軟な3Dモデルをスキャン画像や異なるポーズから作るのは難しいんだ。現在のポーズ変更技術、つまりモデルの位置を変える方法にはいくつかの問題がある。これらは一般にLinear Blend Skinning(LBS)という手法に頼っていて、あまり柔軟じゃなくて新しいポーズを作るのにたくさんの処理が必要になることが多いんだ。さらに、これらの手法はモデルの表面が異なるポーズでどう整列するかの重要な詳細を失ってしまうことがよくある。
そこで、新しい手法としてInvertible Neural Skinning(INS)が提案された。この方法はモデルの表面の整列を保つのを助けて、より複雑な動きが可能になるんだ。人間のポーズがどう変化するかを学びつつ、モデルが元の形を維持できるようにするのがポイントなんだよ。
背景
昔は、研究者たちは固定された形状やテクスチャを使って人間のモデルを作ろうとしてた。これらのモデルは体の動きを正確に表現するための特定のルールを必要としてた。でも最近は、データ主導の方法にシフトして、より柔軟な人間の表現を構築するようになってきた。でも、これらの新しい方法の多くは服やその動きを扱うのに苦労してる。
問題はポーズの定義の仕方にある。通常、ポーズは骨からなるスケルトンで表されて、LBSがこれらの骨に基づいてメッシュ座標を調整するんだ。でも、ゆるい服や複雑な体の動きになると、LBSは限界があって、うまく表現できないことがあるんだ。
伝統的手法の課題
多くの既存の手法は、異なるポーズごとに新しいメッシュを抽出するから、遅くなることがあるんだ。これって、異なるポーズ間のつながりが失われることにもなるから、モデルの見え方に一貫性がなくなるんだよ。
LBSの限界は、特に流れるような服や体の組織で顕著に表れる。パラメトリックモデルでは、基本的な線形補正を使って調整が行われるけど、シンプルな形状にはうまくいくけど、複雑な服の動きには不十分なんだ。
新しいアプローチ
新しいアプローチであるINSは、Invertible Neural Networks(INN)を使う。これらのネットワークは、入力(現在のポーズ)と出力(新しいポーズ)の間に直接的なリンクを作りながら、モデルの形状を変える方法を学習することができるんだ。ポーズ間のつながりを維持することで、INSはより詳細で正確なアニメーションを可能にするんだ。
INSは、ポーズ条件付き可逆ネットワーク(PIN)を使ってポーズの変化を学ぶ。このネットワークはLBSモジュールと連携して、効率的で効果的な再ポーズシステムを作り出すんだ。これによって、INSは処理時間を短縮するだけでなく、さまざまなポーズ間の表面形状の関係も保つことができるんだ。
INSの仕組み
INSは主に3つの部分で構成されている:
ポーズ条件付き可逆ネットワーク(PIN):このネットワークはポーズに基づいてメッシュを変形させる方法を学ぶ。LBSモジュールの周りに2つのPINを配置してる。最初のPINはLBS操作前の変化を捉え、2つ目はその後で機能する。この方法により、調整をもっと早く正確に行えるんだ。
微分可能LBSモジュール:これはPINから学習した重みを基にモデルの再ポーズを実行する部分だ。これは、標準的な空間と変形された空間の情報を組み合わせるのを助けるんだ。
標準表現:このシステムの部分は、特定のポーズに依存しない「ニュートラル」なモデルのバージョンを維持する。これを1回抽出するだけで済むから、システムはゼロから始めなくても新しいポーズをすぐに生成できるんだ。
評価と結果
INSは既存の手法と比較してテストされて、かなりの改善を示した。特に、速度と精度の両方で前の再ポーズ技術であるSNARFを上回ったんだ。
服を着た人間を見たとき、INSは表面の質とスピードの面でより良い結果を提供した。もっと複雑なポーズを処理し、表面の対応関係を維持したので、詳細が異なるフレーム間で一貫して保たれたんだ。
パフォーマンスの分析
INSの重要な側面は、服や肌の詳細をどう保持するかにある。PINとLBSモジュールを使うことで、しわや布の動きといった複雑な詳細を従来の手法よりはるかに良く表現できるんだ。これによって、アニメーションがよりリアルで自然に見えるんだよ。
INSのスピードの利点は、その設計から来ている。たった1回のメッシュ抽出だけで済むから、複数のポーズのためにその情報を再利用できるんだ。古い手法は、各ポーズごとに新しいメッシュを抽出する必要があるから、たくさんの変更が必要になると遅くて扱いにくくなる。
研究の重要性
リアルな人間のモデルをバーチャル環境で作ることは、ゲーム、映画、バーチャルリアリティのアプリケーションにとって非常に重要なんだ。INSは、よりダイナミックでリアルなキャラクターの作成を可能にして、これらの分野でユーザー体験を大いに向上させることができるんだよ。
INSでの進展は、3Dモデルの作成方法の変化を反映している。研究者たちが硬直したパラメトリックモデルから離れるにつれて、INSのような方法がリアルな例から学ぶデータ主導のアプローチへの道を切り開いていくんだ。
未来の方向性
INSは大きな前進を示しているけど、まだ改善の余地がある。今後の研究では、対応検索プロセスの最適化に注力して、さらなる速度と効率的な再ポーズができるようになるかもしれない。テクスチャやライティングを画像から直接扱える新しいタイプのネットワークを開発することも、モデルの作成とアニメーションにさらに大きな影響を与えることができるだろう。
また、初期データを少なくしたり動画からモデルを作成する方法を探ることで、この研究の応用範囲が広がるかもしれない。技術が進化するにつれて、デジタルファブリックデザインから教育やトレーニングシミュレーションまで、さまざまな用途に適用できるようになるんだ。
結論
結論として、Invertible Neural Skinningに関する研究は、リアルでアニメーション可能な服を着た人間の3Dモデルを作る新しい扉を開くんだ。従来の手法の限界に取り組むことで、INSは性能を向上させるだけでなく、3Dモデリングとアニメーションの未来の革新の基盤も築いている。詳細を保持し、処理時間を短縮する能力を持つINSは、さまざまなアプリケーションでデジタル人間を表現し、アニメーションを進化させる上で重要な役割を果たすだろう。
タイトル: Invertible Neural Skinning
概要: Building animatable and editable models of clothed humans from raw 3D scans and poses is a challenging problem. Existing reposing methods suffer from the limited expressiveness of Linear Blend Skinning (LBS), require costly mesh extraction to generate each new pose, and typically do not preserve surface correspondences across different poses. In this work, we introduce Invertible Neural Skinning (INS) to address these shortcomings. To maintain correspondences, we propose a Pose-conditioned Invertible Network (PIN) architecture, which extends the LBS process by learning additional pose-varying deformations. Next, we combine PIN with a differentiable LBS module to build an expressive and end-to-end Invertible Neural Skinning (INS) pipeline. We demonstrate the strong performance of our method by outperforming the state-of-the-art reposing techniques on clothed humans and preserving surface correspondences, while being an order of magnitude faster. We also perform an ablation study, which shows the usefulness of our pose-conditioning formulation, and our qualitative results display that INS can rectify artefacts introduced by LBS well. See our webpage for more details: https://yashkant.github.io/invertible-neural-skinning/
著者: Yash Kant, Aliaksandr Siarohin, Riza Alp Guler, Menglei Chai, Jian Ren, Sergey Tulyakov, Igor Gilitschenski
最終更新: 2023-03-04 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2302.09227
ソースPDF: https://arxiv.org/pdf/2302.09227
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。