動作模倣技術の進展
新しいシステムでアバターの動きが良くなって、自然な動作やリアルタイムのリカバリーができるようになった。
― 1 分で読む
新しいシステムを作ったんだ。これはシミュレートされた人間のようなアバターが自然に動いたり、行動を真似たりできるものだよ。このシステムは転んでも立ち直れるし、動画や言語入力からの参考動作に基づいて動き続けることができる。問題が発生してもシミュレーションをリセットする必要がないから、リアルタイムのアプリケーションで効率的でシームレスなんだ。
モーションイミテーターのテクノロジー
このモーションイミテーターは物理の原理を使って人間の動きを正確に再現することができるんだ。入力データがノイズに満ちていても対応可能で、動画から推定されたポーズやアバターが予期せずに転んでも大丈夫。モデルは最大で1万の動作クリップから学習できるし、追加の安定化力は必要ないんだ。これは、外部の力に依存していた過去の方法に比べて大きな改善だよ。
私たちのシステムの中心的なアイデアは「プログレッシブ乗算制御ポリシー(PMCP)」だ。このポリシーは、システムがより複雑な動きを学ぶにつれてネットワークリソースを動的に割り当てる手助けをするんだ。PMCPによって、コントローラーはスケールアップできて、広範なモーションデータベースから学んだり、転倒からの回復といった新しいタスクを以前の学びを失わずに取り入れたりできるんだよ。
モーションイミテーションの課題に立ち向かう
バーチャルアバターのためにリアルな動きを作り出すのは難しいよ。ヒューマノイドはすぐに転んだり、意図した動きから外れたりするからね。たとえば、ノイズの多い動画データを使うと、アバターはポーズの推定が不正確なためにつまずいたり転んだりすることがあるんだ。これは、物理ベースの方法を広く使うのを難しくしているんだ。
モーションイミテーションを改善するためには、人間のようなアクションを高い精度で真似できるコントローラーを作ることが重要なんだ。従来の強化学習のような方法は可能性を示しているけど、大規模データセットからの動きを真似しようとすると成功には至っていないんだ。一部の研究者は専門的なポリシーのミックスを試みたけど、広範なデータセットに直面したときにはやっぱり不足していたんだ。
これらの問題を克服するために、私たちの提案するシステム「パーペチュアルヒューマノイドコントローラー(PHC)」は、効果的なモーションイミテーションと自然な転倒からの回復に焦点を当てているんだ。システムはPMCPを使っているから、以前取得したスキルを忘れることなく適応して学べるんだ。
ノイズのある入力と失敗の克服
ノイズのある入力を扱うことはこの作業の重要な側面なんだ。さまざまな動画キャプチャ技術では、人間の動きを推定するときに非現実的なポーズが作り出されることが多く、ジャンプしたりスライドしたりするような不自然な動きにつながるんだ。ほとんどの既存の方法は、何かがうまくいかないときにヒューマノイドを再起動することでこれらの問題に対処していて、失敗のサイクルを招くことがあるんだ。
私たちのコントローラーは、予期しない状況を優雅に管理できるように設計されているんだ。リセットする代わりに、転倒から回復して望ましい動きを模倣し続けることができるんだ。この柔軟性は、バーチャル環境でリアルなインタラクションを可能にし、アバターが実際の人の行動を動画入力に基づいて真似ることができるんだよ。
堅牢なヒューマノイドコントローラーの構築
私たちのコントローラーの核心は、広範なモーションデータセットから学ぶ能力にあるんだ。AMASSデータセットから得た例の98.9%を模倣することを目指しているし、何の外部の力にも頼らず学習できるから、モーションの背後にある物理が保たれるんだ。
PHCをトレーニングするためには、「ゴール条件付きモーションイミテーション」という戦略を用いているんだ。この方法では、コントローラーが特定の動作を模倣しようとするときに明確な目標を定義するんだ。タスクをマルコフ決定プロセスとして構成することで、アバターの学習プロセスを導くための構造化されたアプローチを作り出しているんだ。
モーションイミテーションの指標
モーションイミテーションの成功を評価するために、いくつかの指標を使っているんだ。これらの指標は、ヒューマノイドが参考動作をどれだけうまく追跡できるか、そして高品質なデータセットでキャッチされた動きとどれだけ一致しているかを評価するんだ。また、位置や加速度のエラーを測定して、生成された動きのリアリズムをチェックするんだ。
従来の方法を超えて
私たちのPHCは、従来の残余力制御に依存していたモデルと比べて、モーションイミテーションにおいて大きな進歩を示しているんだ。これらの初期のシステムはヒューマノイドを安定させるのに役立つこともあったけど、しばしば浮いたり飛んだりするような非現実的な動きを生成していたんだ。それに対して、私たちのコントローラーは純粋に物理の範囲内で動作して、より本物のシミュレーションを保証しているんだよ。
ノイズに対する堅牢性
PHCの特筆すべき特徴のひとつは、ノイズのある入力に対する抵抗力なんだ。特に動画データを使用する際に、効果的なフィルタリング技術を駆使して、推定をスムースにして入力データの質を向上させることができるんだ。私たちのコントローラーは以前のモデルよりもノイズの信号をうまく扱えるから、リアルタイムアプリケーションに向けての可能性を示しているんだ。
リアルタイムのアバターシミュレーション
PHCはリアルタイムアプリケーションにおいて優れていて、ユーザーがライブ動画フィードを使ってアバターをコントロールできるんだ。たとえば、システムはカメラの前にいる人の動きを追跡して、バーチャル環境でそれを再現できるんだ。この能力は、テレプレゼンスやリモートワークのアプリケーションで、リアルな人間に似たインタラクションが重要な場面で新たな可能性を開くんだ。
言語に基づくモーション生成
動画入力に加えて、私たちのシステムは言語に基づいたコマンドにも応じて動作を生成できるんだ。言語モデルを使用することで、テキストプロンプトに基づいて動作のシーケンスを作ることができる。中間生成の能力を持っているから、アクションの間でスムーズな遷移を作り出して、アバターの動きの流動性を高めることができるんだよ。
モーションイミテーションの評価
高品質な動作シーケンスと動画からのノイズの入力を模倣するコントローラーの能力について、広範なテストを実施したんだ。結果は、PHCが従来の方法を大幅に上回っていて、成功率が高く、エラーが少ないことを示しているんだ。これは、制御された環境でも実際のアプリケーションでもその使用が有効であることを裏付けているんだ。
失敗状態の回復
私たちのシステムのユニークな特徴のひとつは、失敗状態から回復できる能力なんだ。いくつかの失敗条件を定義したんだけど、転倒したり、意図した動きから離れたり、その両方の組み合わせがあるんだ。PHCは立ち上がって、スムーズにリファレンスモーションに戻りながら模倣を続けることができるんだ。これは、アバターが自分の制御外のシナリオに流動的に反応する必要があるアプリケーションにとって、重要な側面なんだよ。
今後の方向性
PHCの素晴らしい能力にもかかわらず、改善の余地はまだあるんだ。たとえば、すべてのテストシーケンスで100%の成功率を達成するのは難しいし、特にフリップやジャンプのような非常にダイナミックな動きではなおさらなんだ。今後の取り組みでは、これらの複雑な動作の学習プロセスを洗練させることを目指しているよ。
別の面白い展望としては、アバターに地形認識を統合して、環境にもっと効果的にインタラクトできるようにすることだ。これにより、アバターが複雑な風景をナビゲートしたり、他のバーチャルオブジェクトとインタラクトしたりするシナリオで、よりリアルな体験ができるようになるんだ。
結論
パーペチュアルヒューマノイドコントローラーは、バーチャルアバターのモーションイミテーションの分野で大きな前進を示しているんだ。転倒から回復できて、動画や言語の入力に応じる能力を持っているから、シミュレーションとのインタラクションが変わる可能性があるんだ。私たちがこの技術を改善し続けることで、リアルな物理ベースのアバターがバーチャル体験の一部として欠かせない存在になる未来を期待しているんだ。
タイトル: Perpetual Humanoid Control for Real-time Simulated Avatars
概要: We present a physics-based humanoid controller that achieves high-fidelity motion imitation and fault-tolerant behavior in the presence of noisy input (e.g. pose estimates from video or generated from language) and unexpected falls. Our controller scales up to learning ten thousand motion clips without using any external stabilizing forces and learns to naturally recover from fail-state. Given reference motion, our controller can perpetually control simulated avatars without requiring resets. At its core, we propose the progressive multiplicative control policy (PMCP), which dynamically allocates new network capacity to learn harder and harder motion sequences. PMCP allows efficient scaling for learning from large-scale motion databases and adding new tasks, such as fail-state recovery, without catastrophic forgetting. We demonstrate the effectiveness of our controller by using it to imitate noisy poses from video-based pose estimators and language-based motion generators in a live and real-time multi-person avatar use case.
著者: Zhengyi Luo, Jinkun Cao, Alexander Winkler, Kris Kitani, Weipeng Xu
最終更新: 2023-09-11 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2305.06456
ソースPDF: https://arxiv.org/pdf/2305.06456
ライセンス: https://creativecommons.org/licenses/by-nc-sa/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。