LooperGP: 新しいライブ音楽パフォーマンスのツール
LooperGPはミュージシャンがライブパフォーマンスのためにカスタマイズ可能なループを生成するのを手助けするよ。
― 1 分で読む
目次
最近、ディープラーニングが音楽制作で大成功を収めてるけど、ライブパフォーマンスでの使用はまだ難しいんだ。この記事では、LooperGPという新しい手法を紹介するよ。これは、ギターミュージックを使ったライブコーディングパフォーマンスで簡単に使える音楽ループを生成するのを手助けするツールなんだ。このツールは、重要な音楽要素をもっとコントロールできるようにして、演者が機械生成の音楽をショーに取り入れやすくすることを目的としてるんだ。
背景
ライブコーディングは、ミュージシャンがコードを書いて音楽をリアルタイムで作るパフォーマンスアートの一形態だ。このアプローチは、アルゴリズムプロセスとライブパフォーマンスの興味深いインタラクションを可能にする。でも、既存の音楽生成モデルは、キーシグネチャ、タイムシグネチャ、楽器の選択などの音楽要素をコントロールする能力が欠けていることが多いんだ。そのせいで、生成した出力をライブパフォーマンスに取り入れるのが難しいんだ。
コントロールの必要性
従来の音楽生成モデルは、いい音楽を作ることができるけど、演者が音楽の重要な側面をコントロールできないことが多いんだ。ライブパフォーマンスは通常、進行中の音楽に合った特定のパラメータが必要だから、このコントロールがないとミュージシャンがこれらのモデルを効果的に使うのが難しくなる。だから、音楽生成プロセスに対するコントロールをもっと与える方法が必要なんだ。
LooperGPの紹介
LooperGPは、演者が特定の要件(長さやタイムシグネチャなど)に合わせたループ可能な音楽フレーズを生成するのを手助けする新しいモデルなんだ。このモデルは、音楽の構造を理解するのが得意なTransformer-XLというタイプのニューラルネットワークに基づいている。LooperGPを大規模な音楽ループのデータセットでトレーニングすることで、ライブパフォーマーにもっとコントロールを与える出力を生み出せるようになったんだ。
データセットの作成
LooperGPの開発には、さまざまな音楽ループを含むデータセットを使ったんだ。このデータセットは、700のジャンルにわたって26,000曲以上を含むDadaGPコレクションから得られたものだ。この曲からループを抽出してトレーニングデータセットに整理することで、LooperGPが一貫性があり、音楽的に面白いループを生成する方法を学べるようになったんだ。
ループの定義
音楽の文脈で、ループはシームレスに繰り返せる音のセグメントなんだ。音楽フレーズがループとして分類できるかどうかを判断するには、特定の特徴が必要だ。具体的には、連続して演奏したときにうまく調和する識別可能な繰り返し部分がないといけない。目標は、繰り返しても不自然に聞こえないフレーズを見つけることなんだ。
ループの抽出
曲の中からループを見つけるプロセスでは、繰り返しフレーズを特定し、期間や音符の密度などのさまざまな要因に基づいて候補をフィルタリングする必要があるんだ。体系的なアプローチを使うことで、チームは効果的なライブコーディングに必要な基準に合った貴重なループを抽出できたんだ。
モデルのトレーニング
モデルは、収集したループのデータセットを使ってトレーニングされ、LooperGPが特定のパラメータに従った音楽を生成できるように学ばせたんだ。ループの保存形式を変えるなど、さまざまなトレーニングアプローチが試されて、モデルが素早くループを生成するだけでなく、演者が使いやすい音楽的に一貫性のあるフレーズも作れるようにすることが目標だったんだ。
推論コントロール
LooperGPがライブパフォーマンスに合った音楽を生成できるようにするためには、ミュージシャンがキー、タイムシグネチャ、ループの長さを指定できるコントロールを導入する必要があったんだ。このコントロールによって、演者がライブセッティングでモデルを使うとき、すでに演奏しているものと上手く合うループを生成できるようになるんだ。
パフォーマンスの評価
LooperGPのパフォーマンスは、ベースラインモデルと比較して評価されたんだ。この評価は、生成されたループの数とその平均的な質に焦点を当ててた。結果は、LooperGPがベースラインモデルよりもはるかに多くのループを生成できている一方で、質も良好に保たれていることを示してたんだ。
主観的リスニングテスト
生成されたループの音楽的質を評価するために、機械生成と人が作ったループの両方を評価する参加者にリスニングテストを行ったんだ。参加者は異なる抜粋を聞いて、独創性や音楽的な一貫性などのさまざまな側面で評価した。結果、機械生成のループはよく評価されたけど、改善の余地も残ってることがわかったんだ。
人間と機械の出力の違い
リスニングテストでは、参加者が人間が作った音楽とモデルが生成した音楽の違いを感じたことがわかったんだ。一部の機械生成のループは独創性で評価されたけど、他のものは単純すぎるか繰り返しが多いと表現された。このフィードバックは、モデルが生成するループの複雑さや音楽的興味を高めるために調整が必要だってことを示してるんだ。
今後の作業
今後、LooperGPをライブコーディング環境に統合することで、ミュージシャンがパフォーマンス中にモデルを実験できる可能性があるんだ。さらに、トレーニングプロセスやアルゴリズムを探求することで、生成された出力に対するコントロールが向上し、ライブコーディングにとってより便利なツールになるかもしれない。
既存の音楽生成モデルの限界を克服することで、LooperGPは機械生成の音楽をライブパフォーマンスに取り入れたいミュージシャンにとって強力なリソースになれるんだ。この研究で提案された調整や評価は、LooperGPを洗練させて、ライブコーダーのアート的なニーズにもっとフィットするようにするのに役立つんだ。
結論
LooperGPは、ライブコーディングパフォーマンスにおけるディープラーニングの統合において一歩前進を意味してるんだ。コントロール可能な音楽生成とループ可能なフレーズの作成に焦点を当てることで、このモデルは機械生成の出力とライブパフォーマンスの間のギャップを埋めることを目指していて、ミュージシャンにとって創造的な表現を高めるための貴重なツールを提供するんだ。研究と開発が進むにつれて、LooperGPはさらに進化し、その機能や生成される音楽ループの質が向上することが期待されてるんだ。
タイトル: LooperGP: A Loopable Sequence Model for Live Coding Performance using GuitarPro Tablature
概要: Despite their impressive offline results, deep learning models for symbolic music generation are not widely used in live performances due to a deficit of musically meaningful control parameters and a lack of structured musical form in their outputs. To address these issues we introduce LooperGP, a method for steering a Transformer-XL model towards generating loopable musical phrases of a specified number of bars and time signature, enabling a tool for live coding performances. We show that by training LooperGP on a dataset of 93,681 musical loops extracted from the DadaGP dataset, we are able to steer its generative output towards generating 3x as many loopable phrases as our baseline. In a subjective listening test conducted by 31 participants, LooperGP loops achieved positive median ratings in originality, musical coherence and loop smoothness, demonstrating its potential as a performance tool.
著者: Sara Adkins, Pedro Sarmento, Mathieu Barthet
最終更新: 2023-03-02 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2303.01665
ソースPDF: https://arxiv.org/pdf/2303.01665
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。