Simple Science

最先端の科学をわかりやすく解説

# 電気工学・システム科学# マルチメディア# コンピュータビジョンとパターン認識# サウンド# 音声・音声処理

AIOZ-GDANCEを紹介するよ: グループダンス生成のための新しいデータセット!

AIOZ-GDANCEは音楽に基づいたグループダンスの動きを作る研究を促進してるよ。

― 1 分で読む


AIOZ-GDANCE:AIOZ-GDANCE:グループダンスデータセットめの新しいデータセット。音楽からグループダンスの動きを生成するた
目次

ダンスは人間の文化やコミュニケーションに欠かせない要素だよね。SNSの普及で、ダンス動画を作ってシェアするのがめっちゃ人気になった。だから、毎日何百万ものダンス動画がいろんなオンラインプラットフォームで見られてるんだ。研究者たちは、音楽に基づいて自然なダンスの動きを作り出す方法を見つけようとしてるけど、進展はあるものの、ほとんどの研究がソロダンスに焦点を当ててるんだ。グループでのダンス動作を作るっていう課題はまだ難しいんだよね。

グループダンス生成の課題

グループのためのダンス動作を作るのは、一人のダンサーのために作るよりも複雑なんだ。グループダンスでは、各ダンサー用に異なる振り付けが必要だけど、音楽と合わせる必要もあるし、ダンサー同士が物理的に相互作用するから、その動きが干渉しないようにするのが大変なんだ。ほとんどのデータセットはソロダンス動画に焦点を当てていて、グループダンスの重要な要素、つまり同期やダンサー同士の相互作用を捉えてないんだよね。

グループダンス生成のために効果的な研究をするには、大きなデータセットが必要なんだ。既存のデータセットは小さいか、高価なモーションキャプチャ技術に頼ってるから、多様なデータを集めるのが難しい。中には、オンラインの動画からダンスの動きを抽出するアルゴリズムを使った試みもあるけど、これらのデータセットは主にソロダンサー用に設計されてるんだ。

AIOZ-GDANCEの紹介

これらの問題に対処するために、AIOZ-GDANCEという新しいデータセットを紹介するよ。このデータセットはグループダンス生成用に作られていて、グループが踊っている動画とその音楽を含んでるんだ。私たちのデータセットは他のほとんどのものよりもより多くのコレクションを持っていて、いろんなダンススタイルや音楽ジャンルをサポートしてる。

私たちのデータセットのユニークなところは、半自動的なラベリングプロセスを取り入れてることだよ。これによって、高品質なデータを確保してるんだ。AIOZ-GDANCEは、実際の状況でのグループダンスを示す何時間もの動画が含まれていて、ペアになった音楽と3Dダンスの動きもあるんだ。

データセットの開発方法

大規模なデータセットを開発するために、コストや複雑さの観点から従来のモーションキャプチャシステムは使わないことにしたんだ。代わりに、YouTubeやFacebookなどの公共プラットフォームからグループダンスの動画を集めたよ。全ての動画は、標準解像度とフレームレートになるように処理されたんだ。

動画内のすべてのダンサーの動きを追跡するために、高度な追跡技術を使って各ダンサーのバウンディングボックスを取得したんだ。このステップは、動きを正確に再構築するために重要なんだよね。さらに、ポーズ推定方法を用いて各ダンサーの初期の2Dポーズを生成したんだけど、動きのブレなどの問題からいくつかの誤差が出たから、それを手動で修正したんだ。

各ダンサーの動きに3Dモーションをフィットさせる方法を適用して、各ダンサーの表現が正確にキャプチャされるようにしたんだ。これには、すべてのダンサーの動きを同時に最適化して、物理的な相互作用を考慮しながら一貫したグループモーションを作り上げることが含まれているよ。

データセットの利用方法

AIOZ-GDANCEを使って、グループダンス生成の未来の研究にインスピレーションを与えたいと思ってるんだ。ソロダンサーの振り付けにはかなりの注目が集まってるけど、グループダンスはまだ探求が必要なんだよね。

グループダンス生成の他にも、人間のポーズ追跡やモーション分析など、いろんなタスクに役立てられるよ。また、ダンス教育や行動分析などの分野にも役立つかもしれない。研究者たちは、このデータセットの他の潜在的な応用を探ることを勧めてるんだ。

音楽に基づくグループダンス生成

私たちの目標は、与えられた音楽オーディオ入力とダンサーの初期位置に基づいてグループモーションシーケンスを生成することなんだ。生成されたダンス動作が音楽と調和して、リズムやスタイルを維持することを目指してるよ。ダンサーの動きは一貫性があって、互いに衝突したり干渉したりしないようにしなきゃね。

グループダンスジェネレーターのアーキテクチャ

私たちのシステムは、音楽のシーケンスと初期のダンサーの位置を入力として取り込む特別なアーキテクチャを使ってるんだ。音楽は意味のある特徴を抽出するために処理され、その後、オーディオの重要な部分をキャッチするためにエンコードされるよ。

ダンサーの初期ポーズは、音楽の特徴とスタート位置を組み合わせて生成するんだ。私たちのモーション生成の重要な部分は、すべてのダンサーの動きが同期して音楽と一致するようにすることなんだ。これには、ダンサー同士が空間や時間でどう関係しているかを考えるためにアテンションメカニズムを使ってるんだ。

実験と結果

AIOZ-GDANCEデータセットでトレーニングするために、私たちのモデルを構築したんだ。これによって、私たちの方法が一貫したグループダンス動作を作成するのにどれだけ効果的かを測ることができたよ。私たちのアプローチを、一般的にソロダンスに焦点を当てた既存の方法と比較したんだ。

私たちの実験では、特にアテンションメカニズムを利用した場合、私たちの方法が他の選択肢よりも優れていることがわかったよ。ダンスの交差のような問題を扱うのが得意だったんだ。

また、ダンサーの人数がパフォーマンスに与える影響を調べたんだ。一部の指標は、異なる人数のダンサー間で一貫性があることを示していて、私たちの方法が何人のダンサーが参加していても信頼できるダンス動作を生成できることを示してるよ。ただし、ダンサーが多くなるほど交差問題が発生する可能性も増えることが観察されたんだ。

次に、異なるダンススタイルがグループダンス生成に特有の課題をもたらすことを調べたよ。ズンバやエアロビクスのようなスタイルは、シンプルな動きのおかげでモデルが再現しやすかった。一方で、ボリウッドやサンバのように、より複雑な動きを伴うスタイルは、正確にキャッチするのが難しかったんだ。

結論

要するに、私たちは音楽に基づくグループダンス生成のために設計された大規模なデータセットAIOZ-GDANCEを紹介したんだ。このデータセットはこの分野の研究をサポートすることを目的としていて、グループのためのダンス動作を作る新しい方法を開発するために必要なリソースを提供してるよ。私たちの取り組みは、音楽駆動のグループ振り付けに関する研究を進める可能性を示していて、他の人たちがさらなる応用を探る道筋を提供するものであると思ってるんだ。

オリジナルソース

タイトル: Music-Driven Group Choreography

概要: Music-driven choreography is a challenging problem with a wide variety of industrial applications. Recently, many methods have been proposed to synthesize dance motions from music for a single dancer. However, generating dance motion for a group remains an open problem. In this paper, we present $\rm AIOZ-GDANCE$, a new large-scale dataset for music-driven group dance generation. Unlike existing datasets that only support single dance, our new dataset contains group dance videos, hence supporting the study of group choreography. We propose a semi-autonomous labeling method with humans in the loop to obtain the 3D ground truth for our dataset. The proposed dataset consists of 16.7 hours of paired music and 3D motion from in-the-wild videos, covering 7 dance styles and 16 music genres. We show that naively applying single dance generation technique to creating group dance motion may lead to unsatisfactory results, such as inconsistent movements and collisions between dancers. Based on our new dataset, we propose a new method that takes an input music sequence and a set of 3D positions of dancers to efficiently produce multiple group-coherent choreographies. We propose new evaluation metrics for measuring group dance quality and perform intensive experiments to demonstrate the effectiveness of our method. Our project facilitates future research on group dance generation and is available at: https://aioz-ai.github.io/AIOZ-GDANCE/

著者: Nhat Le, Thang Pham, Tuong Do, Erman Tjiputra, Quang D. Tran, Anh Nguyen

最終更新: 2023-03-26 00:00:00

言語: English

ソースURL: https://arxiv.org/abs/2303.12337

ソースPDF: https://arxiv.org/pdf/2303.12337

ライセンス: https://creativecommons.org/licenses/by/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。

著者たちからもっと読む

コンピュータビジョンとパターン認識HabiCrowd: 群衆の中でロボットがナビゲートするためのシミュレーター

HabiCrowdは、ロボットが混雑した環境での人間の動態を理解するのを手助けするよ。

― 1 分で読む

類似の記事