合成データ技術でASRの精度を向上させる
研究によれば、合成テキストがASRシステムを効果的に強化できることが示されてるよ。
― 1 分で読む
目次
話し言葉を理解できるシステムを作るには、録音されたスピーチデータがいっぱいいるんだ。このデータは通常、人間から集めることになるから、時間もお金もかかっちゃう。そこで、研究者たちは合成データ、つまりコンピュータが生成したスピーチを作ろうとしている。この作業は、テキスト生成とスピーチ合成を組み合わせて、音声認識(ASR)システムを改善することに焦点を当ててる。
データの必要性
ASRモデルの訓練には、録音されたスピーチの何時間分も必要で、それを文字起こしする必要があるから、言ったことのテキストバージョンが要るんだ。このデータを人間から集めるのは大変で、高いんだよ。データ拡張技術は、この必要を減らそうとしていて、既にラベル付けされたデータや未ラベルデータを使って追加データを作るんだ。一つの効果的な方法はスピーチデータ合成で、いろんな分野で Promise を示してる。
ASRのためのテキスト拡張
今までの研究は主に合成スピーチデータを作ることを見てきたけど、そのスピーチデータを作るのに使うテキストの質はあまり詳しく調べられてないんだ。テキスト拡張は合成スピーチの多様性を増して質を向上させる可能性があって、より良いASR結果につながるかもしれない。それに、テキストはスピーチデータよりも簡単に、安く集められるんだ。
既存研究の限界
ASR精度を向上させるためのテキストメソッドの研究は限られてる。一部の研究では、パフォーマンスに小さな改善が見られたけど、これらはしばしば短い発話や特定のデータセットに依存してる。大規模な事前学習モデルを使った現代のテキスト生成技術は、合成テキストを強化する新しい方法を提供するけど、これまで広く適用されてないんだ。
我々のアプローチ
この作業では、従来のルールベースのテキスト生成システムと、現代のニューラルネットワークベースのシステムを比較してる。合成テキストを生成するために、BARTという大規模な事前学習モデルを使ってる。このアプローチは柔軟で、ルールベースの方法のように人間の努力を必要としないんだ。様々なデータセットにわたる異なるテキスト拡張方法の影響を調べてる。
使用したデータセット
実験は数個のデータセットで行われた。最初は、960時間の文字起こしされたスピーチが入ってるLibriSpeech。次は、画像を検索するためのコマンドを使うフォトサーチドメインのデータセット。三つ目は、オープンエンドのリクエストが含まれるQ&Aドメイン。各データセットは高品質な合成データを生成するのに独自の課題を持ってた。
テキスト生成プロセス
テキスト拡張プロセスは、合成テキストを生成するための基盤となるシードテキストコーパスから始まる。LibriSpeechでは、281,000発話からのテキストを使った。Q&Aドメインには100,000の言い換え文があり、フォトサーチドメインはわずか3,350の発話からスタートした。
次に、テキスト生成のための異なる方法を適用した。NLXという方法は、人間が作った文法ルールに依存するルールベースのシステム。一方、BARTを使う方法は、モデルがシードデータから学んだパターンに基づいてテキストを生成する現代のニューラルネットワークアプローチを適用する。
合成テキスト生成の結果
合成テキストが生成されたら、テキスト音声変換(TTS)システムを使ってスピーチに変換された。実験では、ニューラルテキスト拡張がルールベースの方法より全データセットで一般的に良い結果を出したことが示された。この発見は、ニューラルアプローチを使うことでASRのパフォーマンスが大きく改善される可能性があることを示してるけど、データセットによって成果の度合いは様々だった。
拡張テキストがASRパフォーマンスに与える影響
我々の結果は、テキスト拡張がASR精度を大幅に向上させること、特に多様で複雑な発話スタイルのデータセットにおいて、ということを示した。改善はデータセットや拡張方法によって異なるけど、単語誤り率(WER)で10%から16%の範囲だった。逆に、予測可能な構造のシンプルなドメインは、テキスト拡張の恩恵をあまり受けなかった。
異なる手法の組み合わせ
さらに実験では、NLXとBARTのデータを組み合わせることも行った。異なるタイプの合成データを混ぜると、全体的なパフォーマンスがさらに向上した。この発見は、ASR訓練データの質を向上させるために複数の技術を一緒に使うことの利点を強調してる。
成功に影響を与える要因
結果は、シードテキストコーパスのサイズがASRシステムのパフォーマンスに大きく影響することも示唆してる。大きくて多様なシードコーパスは、特にさまざまな発話があるドメインでより良い結果をもたらす。シードデータが限られていると、フォトサーチドメインのようにテキスト拡張の効果が減少しちゃうんだ。
音声拡張の役割
音声拡張技術もASRモデルを強化するのに重要な役割を果たした。音声のスピードやピッチなどを操作することで、研究者たちはよりリッチな訓練データセットを作れた。改善されたテキストと音声データの組み合わせは、ASRシステムの全体的なパフォーマンスを一般的に向上させる結果をもたらした。
今後の方向性
この作業は、ASRシステムの合成データを作成するのに現代のテキスト生成技術が重要であることを強調してる。今後の研究は、シードテキストの多様性を拡大したり、音質を向上させる追加的な方法を探ったり、デコーディングプロセス中に外部言語モデルを使用することを調査したりすることに注力できる。
結論
テキスト拡張を活用することで、高価な人間によるアノテーション音声にあまり依存せずにASRシステムを改善するコスト効果の高い方法ができるんだ。BARTのような強力な事前学習済み言語モデルを使うことで、高品質な合成テキストを生成する可能性が大きいことが示されて、最終的には話し言葉を理解するためのより良いシステムの構築に貢献できる。これはASR技術のさらなる改善や応用の扉を開く研究分野だよ。
タイトル: Text Generation with Speech Synthesis for ASR Data Augmentation
概要: Aiming at reducing the reliance on expensive human annotations, data synthesis for Automatic Speech Recognition (ASR) has remained an active area of research. While prior work mainly focuses on synthetic speech generation for ASR data augmentation, its combination with text generation methods is considerably less explored. In this work, we explore text augmentation for ASR using large-scale pre-trained neural networks, and systematically compare those to traditional text augmentation methods. The generated synthetic texts are then converted to synthetic speech using a text-to-speech (TTS) system and added to the ASR training data. In experiments conducted on three datasets, we find that neural models achieve 9%-15% relative WER improvement and outperform traditional methods. We conclude that text augmentation, particularly through modern neural approaches, is a viable tool for improving the accuracy of ASR systems.
著者: Zhuangqun Huang, Gil Keren, Ziran Jiang, Shashank Jain, David Goss-Grubbs, Nelson Cheng, Farnaz Abtahi, Duc Le, David Zhang, Antony D'Avirro, Ethan Campbell-Taylor, Jessie Salas, Irina-Elena Veliche, Xi Chen
最終更新: 2023-05-22 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2305.16333
ソースPDF: https://arxiv.org/pdf/2305.16333
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。