Simple Science

最先端の科学をわかりやすく解説

# コンピューターサイエンス# コンピュータビジョンとパターン認識

3Dデジタルヒューマンを作る方法

新しい技術が3Dスキャンを組み合わせて柔軟な人間アバターを作るんだ。

― 1 分で読む


3Dデジタルヒューマンの作3Dデジタルヒューマンの作成方法アルなディテールで作れるようになったよ。新しいアプローチで多様な3Dアバターがリ
目次

この記事では、3Dデジタルヒューマンやオブジェクトを詳細に作成する方法について話してるよ。著者たちは、実際の人や物の3Dスキャンを取り込んで、それを組み合わせて異なる服やアクセサリーを持つ新しい人間のアバターを作るシステムを考え出したんだ。この研究の目的は、人間の形をもっと多様で柔軟に表現することなんだ。

背景

最近、特にデジタルヒューマンの3Dモデリングに対する関心が高まってるんだ。今の多くの方法は、服を着た人のスキャンを一つのオブジェクトとして扱っていて、個々の服やアクセサリーを簡単に組み合わせることができないから、バラエティーのあるアバターを作る能力が制限されてる。

この問題を克服するために、いくつかの研究者は合成データを使ってモデルを作成したけど、これらのモデルにおける人間と物体の相互作用は、実生活を反映してないことが多い。たくさんの異なるオブジェクトを手動で作成するのは難しいからなんだ。だから、著者たちはリアルなデータから3Dモデルを作成する新しい方法を作りたいと思ってる。

新しいアプローチ

著者たちは、人間やオブジェクトのモデルを分解して構築する方法を学べる新しいフレームワークを導入したんだ。このフレームワークは「構成生成モデル」と呼ばれてる。主なアイデアは、リュックやコート、スカーフのような物体との人間の相互作用を理解することなんだ。問題は、物体を持った人をスキャンすると、スキャンが一緒に合体しちゃって、区別が難しくなることなんだ。

この課題に対処するために、著者たちは同じ人の2セットのスキャンを使用することを提案してる:物体なしのスキャンと物体ありのスキャン。それらを比較することで、システムは人間から物体を分離する方法を学べるんだ。これにより、様々な物体をスムーズに統合できる新しいデジタルヒューマンモデルの作成が可能になるんだ。

データ収集

著者たちは、詳細な3Dスキャンをキャプチャするためにマルチカメラセットアップを使用してデータを集めたんだ。スキャンプロセスでは、同じ人を異なるポーズや異なる物体を持ってキャプチャするんだ。この方法は、あまり時間やリソースを使わずに十分なバリエーションを確保できる。

スキャンされた物体には、様々な種類の服やコート、帽子、リュックなどの日常的なアイテムが含まれてるんだ。この多様なデータがモデルに、異なるアクセサリーを持つ人間のリアルな表現を作成する方法を学ばせるんだ。

学習プロセス

次に、著者たちは3Dスキャンを自動的に分解する方法を開発したんだ。システムは、人間の形を周りの物体から分けることを学んでる。人間だけのスキャンと人間と物体の両方を含むスキャンを使って、方法は違いを学びながら新しい形を生成する方法を探ってる。

新しい人間のアイデンティティに出会ったとき、システムは学んだ物体と効率的に新しいアイデンティティを組み合わせることができるんだ。これにより、全体のモデルを再訓練しなくても幅広い可能性が生まれるんだ。

結果

著者たちは、自分たちのモデルが適応して新しいキャラクターを成功裏に作成できることをテストしたんだ。結果は、彼らのアプローチが以前の方法よりも優れていることを示してる。システムは、リアルな相互作用を維持しつつ、異なる服やアクセサリーを持つ様々な人間のアバターを生成することができるんだ。

著者たちは、システムがランダムな3Dアバターを生成する能力を示し、ユーザーが各アバターに追加される特定のアイテムをコントロールできる方法を見せたんだ。ユーザーは、人間の形や物体を別々に変更できるから、より柔軟でクリエイティブな選択肢を提供するんだ。

他の方法との比較

自分たちの方法を既存のモデルと比較したところ、以前のアプローチはリアルな詳細を持つ多様で興味深い出力を作成するのに苦労していることが多かったけど、彼らの方法は優れていることがわかったんだ。著者たちはユーザー調査を行い、参加者が自分たちのシステムによって生成された出力を従来の方法による出力よりも好むことがわかったんだ。

これは、新しいモデルがリアルなだけでなく、元データに似すぎない多様な人間の表現を生み出せることを示してるんだ。

課題と限界

期待できる結果にもかかわらず、著者たちはいくつかの課題に気づいてるんだ。例えば、彼らのシステムは大きな物体にはうまく機能するけど、薄い衣服の層を正確に分けるのはまだ難しいんだ。3Dスキャン技術にも精度の限界があって、生成されたモデルの質に影響を与えることがあるんだ。

著者たちは、通常の画像から直接作業するようにモデルを拡張することが、将来の研究のためのエキサイティングな分野だと指摘してる。これにより、より多くの現実のシナリオでアプローチが適用できるようになるんだ。

結論

この記事で紹介された研究は、さまざまな物体を取り入れた3D人間モデルを作成する新しい方法を強調してるんだ。リアルなデータと教師なし学習に焦点を当てることで、著者たちは非常に多様でリアルなデジタルアバターを生成するシステムを作り上げたんだ。これは、エンターテインメント、バーチャルリアリティ、衣服のシミュレーションなど、様々な分野で役立つかもしれないんだ。

今後の方向性

著者たちは、限界を解決することで自分たちの方法を改善し続ける予定なんだ。他の服やアクセサリーをより正確に扱うために、彼らのフレームワークには可能性があると信じてるんだ。

さらに、3Dスキャン以外のさまざまな種類のデータに対応するようにフレームワークを適応させる機会もあるんだ。これによって、デジタルヒューマンやオブジェクトのモデル化が進み、アーティスト、デザイナー、開発者にとってさまざまな産業で役立つツールが増えるかもしれないんだ。

最後に

このアプローチは、人間や物体の3Dモデリングの分野で大きな前進を示してるんだ。これにより、現実のバーチャル表現を構築する方法で創造性や革新の機会が広がっていくんだ。技術とデータ収集方法の改善が進む中で、この研究の可能性は広大で、より魅力的でリアルなデジタル体験への道を開いていくんだ。

オリジナルソース

タイトル: NCHO: Unsupervised Learning for Neural 3D Composition of Humans and Objects

概要: Deep generative models have been recently extended to synthesizing 3D digital humans. However, previous approaches treat clothed humans as a single chunk of geometry without considering the compositionality of clothing and accessories. As a result, individual items cannot be naturally composed into novel identities, leading to limited expressiveness and controllability of generative 3D avatars. While several methods attempt to address this by leveraging synthetic data, the interaction between humans and objects is not authentic due to the domain gap, and manual asset creation is difficult to scale for a wide variety of objects. In this work, we present a novel framework for learning a compositional generative model of humans and objects (backpacks, coats, scarves, and more) from real-world 3D scans. Our compositional model is interaction-aware, meaning the spatial relationship between humans and objects, and the mutual shape change by physical contact is fully incorporated. The key challenge is that, since humans and objects are in contact, their 3D scans are merged into a single piece. To decompose them without manual annotations, we propose to leverage two sets of 3D scans of a single person with and without objects. Our approach learns to decompose objects and naturally compose them back into a generative human model in an unsupervised manner. Despite our simple setup requiring only the capture of a single subject with objects, our experiments demonstrate the strong generalization of our model by enabling the natural composition of objects to diverse identities in various poses and the composition of multiple objects, which is unseen in training data. https://taeksuu.github.io/ncho/

著者: Taeksoo Kim, Shunsuke Saito, Hanbyul Joo

最終更新: 2023-05-29 00:00:00

言語: English

ソースURL: https://arxiv.org/abs/2305.14345

ソースPDF: https://arxiv.org/pdf/2305.14345

ライセンス: https://creativecommons.org/licenses/by/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。

著者たちからもっと読む

コンピュータビジョンとパターン認識人間と物の相互作用学習の革新的手法

新しい技術は、生成された画像を使って人間と物体のインタラクションをよりよく機械が理解できるようにしてるんだ。

― 1 分で読む

類似の記事

ヒューマンコンピュータインタラクションAI研究のためのカスタマイズ可能なアノテーションツール

このツールは、研究者が自分のニーズに合わせた柔軟なアノテーションシステムを作るのを手伝うよ。

― 1 分で読む