Simple Science

最先端の科学をわかりやすく解説

# コンピューターサイエンス# コンピュータビジョンとパターン認識

3D衣服フィッティング技術の進化

リアルな服を3Dモデルにフィットさせる新しい方法がオンラインショッピングを楽しませる。

― 1 分で読む


3D服のフィットテクノロジ3D服のフィットテクノロジーが革新されたフィッティングを革命的に変えた。新しい方法がオンラインショッピングの服の
目次

オンラインショッピングやバーチャル体験の世界では、実際に服を着ずに試着するためのより良い方法を常に探しています。デジタル版の自分が異なるアウトフィットをどう見えるかを見ることができると想像してみてください。ここで、3Dガーメントリターゲティングのアイデアが登場します。これは、衣服をさまざまな形状やポーズの3D人間モデルにフィットさせることを可能にします。

従来、ガーメントリターゲティングに使われるほとんどの方法は、あらかじめ定義された特定のタイプの服モデルに焦点を当てていました。これらの方法は、実際の服がこれらのカテゴリーにきれいにはまらない場合に苦労することが多かったです。我々の目標は、先進技術を通じて、より幅広い服のスタイルやデザインを実験する方法を見つけることです。

課題

ガーメントリターゲティングの主な課題の一つは、人間の体型やポーズの多様性です。本物の人はさまざまな形やサイズがあり、ポーズも大きく変わります。これにより、服を正確にフィットさせるのが難しくなります。3Dモデルに服を着せる際には、衣服が体に自然に沿っていること、体を貫通したり浮いたりしないようにする必要があります。

現在の方法のもう一つの問題は、主にデジタルで作成された衣服を扱っているため、実際の衣服を含むのが難しいということです。ここでの目標は、デジタルとリアルな服の両方に対応するシステムを作ることです。

我々の解決策

これらの課題に対処するために、自己教師あり学習に焦点を当てた新しい方法を開発しました。これは、システムが処理するデータから多くの手動入力を必要とせずに学習できることを意味します。アイデアは、ソフトウェアがさまざまな体に服を最適にフィットさせる方法を自動的に見つけられる、より適応可能で柔軟なプロセスを作ることです。

イソマップ埋め込みの使用

我々は、衣服を異なる体型やポーズに合わせるのを助けるためにイソマップ埋め込みという概念を導入しました。これは、衣服と体モデルのポイントをつなぐ地図を作成するようなものです。この地図は、衣服が他の人の体型にどのようにフィットするかを理解するのに役立ちます。

このアプローチにより、衣服の各部分が人間モデルのどこに行くべきかをざっくりと推定することができます。マッピングプロセスを通じてこれらのポイントを確立したら、自己教師ありトレーニング方法を使用してフィットをさらに改善できます。

フィット感の調整

最初の地図を使用して衣服を体モデルに合わせた後、調整プロセスを開始します。これは、衣服が正しく見えるように調整を行うことを含みます。形状を維持し、引き伸ばしたり破れたりしないようにする必要があります。

我々は、衣服の各ポイントがどこにあるべきかを予測するネットワークを使用します。元の衣服の形状とそれがフィットする体を考慮に入れています。このステップは、リアルな表現を作成するために重要です。

ディテールの保持

フィット感を調整する際、襟、ポケット、柄など、各衣服のユニークなディテールも考慮します。衣服がうまくフィットするだけでは不十分で、見た目も良くなければなりません。これらのディテールを保持するために、元の特徴を最終出力に統合する方法を使用します。これにより、衣服がリアルに見えるようになります。

我々のデータセット

我々の方法を正しくトレーニングし評価するために、さまざまな体型にユニークな衣服を含むリアルなデータセットが不足していることに気付きました。そこで、自分たちのデータセットを集めました。このデータセットは、さまざまなポーズでキャプチャされた多くの異なる衣服で構成されています。このコレクションは、実際のシナリオに対して我々の方法をテストするのに非常に価値があります。

結果と評価

我々の方法がどれだけ効果的かを見るためにいくつかのテストを行いました。衣服のフィットの効果は、さまざまな指標を使用して測定されました。これらの指標は、衣服が体型にどれだけ正確に整列しているか、ディテールがどれだけ保持されているか、体に不適切に重なっているかを確認するのに役立ちます。

達成事項

我々の結果は、リアルな衣服を異なる3D体モデルにうまくフィットさせることができることを示しています。たとえ我々のシステムが主に合成データでトレーニングされていても、リアルな衣服にうまく一般化し、さまざまなスタイルや形状に適応する能力を示しています。これにより、ファッションのeコマースやバーチャル試着室の実用的な応用の扉が開かれます。

実世界での応用

我々のフレームワークの潜在的な応用は広範囲にわたります。以下はそのいくつかの例です:

バーチャル試着

オンラインショッピングは大幅に改善できます。顧客は、バーチャル環境で自分にどのように服が見えるかを見ることができます。これにより、返品が減り、より没入型のショッピング体験を提供できます。

サイズフィッティングソリューション

我々の方法は、さまざまなサイズの服のフィッティングにも対応できます。衣服が異なる体の寸法に適応できるようにし、ブランドがより広い観客に対応しやすくなります。

レイヤードクローシング

もう一つのエキサイティングな応用は、衣服を重ね着できる能力です。我々の技術は、ジャケットをシャツの上にフィットさせるようなスタイルを展示するために重要な、衣服が他の衣服の上にフィットすることを可能にします。

トレーニング用の2Dデータセットの生成

我々のフレームワークは、説得力のある3Dモデルを生成できるため、3Dデータから高品質の2D表現を作成するために利用することができます。これにより、バーチャル試着技術のさらなる進展に使用できる広範なデータセットが作成される可能性があります。

制限と今後の作業

我々は進展に満足していますが、改善できる点はまだあります。我々の方法の一つの制限は、現在のところモデルから既存の衣服を取り除くことを考慮していないことです。これは、体自体の追加モデルが必要になる可能性があるため、課題を提示します。

さらに、我々は、ドレスやケープのようなゆったりとした衣服をより適切に扱えるようにモデルを改善する計画です。これらのタイプは、その性質と体との相互作用により、洗練された取り扱いが必要です。

結論

まとめると、我々の研究は、さまざまな3D体モデルにリアルな衣服をフィットさせるための新しい方法の開発につながりました。自己教師あり学習と革新的なマッピング技術を利用することで、さまざまな衣服や体型に適応できる多用途なフレームワークを作成できます。未来は、バーチャル試着技術のさらなる発展とファッション業界内での応用の拡大に向けて、エキサイティングな可能性を秘めています。

オリジナルソース

タイトル: Dress-Me-Up: A Dataset & Method for Self-Supervised 3D Garment Retargeting

概要: We propose a novel self-supervised framework for retargeting non-parameterized 3D garments onto 3D human avatars of arbitrary shapes and poses, enabling 3D virtual try-on (VTON). Existing self-supervised 3D retargeting methods only support parametric and canonical garments, which can only be draped over parametric body, e.g. SMPL. To facilitate the non-parametric garments and body, we propose a novel method that introduces Isomap Embedding based correspondences matching between the garment and the human body to get a coarse alignment between the two meshes. We perform neural refinement of the coarse alignment in a self-supervised setting. Further, we leverage a Laplacian detail integration method for preserving the inherent details of the input garment. For evaluating our 3D non-parametric garment retargeting framework, we propose a dataset of 255 real-world garments with realistic noise and topological deformations. The dataset contains $44$ unique garments worn by 15 different subjects in 5 distinctive poses, captured using a multi-view RGBD capture setup. We show superior retargeting quality on non-parametric garments and human avatars over existing state-of-the-art methods, acting as the first-ever baseline on the proposed dataset for non-parametric 3D garment retargeting.

著者: Shanthika Naik, Kunwar Singh, Astitva Srivastava, Dhawal Sirikonda, Amit Raj, Varun Jampani, Avinash Sharma

最終更新: 2024-01-05 00:00:00

言語: English

ソースURL: https://arxiv.org/abs/2401.03108

ソースPDF: https://arxiv.org/pdf/2401.03108

ライセンス: https://creativecommons.org/licenses/by-nc-sa/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。

著者たちからもっと読む

コンピュータビジョンとパターン認識スタイライズドモーションディフュージョンモデルを紹介します

テキストとスタイルシーケンスからスタイライズされた人間の動きを生成する新しいモデル。

― 1 分で読む

類似の記事