Simple Science

最先端の科学をわかりやすく解説

# コンピューターサイエンス# 情報検索# 人工知能

オンライン広告のクエリ分類を改善する

異なるモデル戦略を使用してクエリ分類を強化する方法。

― 1 分で読む


広告クエリ分類の強化広告クエリ分類の強化ムワーク。オンライン広告の効果を高めるためのフレー
目次

今日のデジタル世界では、ビジネスはオンライン広告に頼って潜在顧客にアプローチしている。ユーザーが商品を検索するときに何を求めているのかを理解することは、このプロセスの重要な部分だ。この理解があれば、適切な広告を適切な人に見せることができる。しかし、検索クエリを分類することには多くの課題がある。この記事では、広告をより効果的にするために、シンプルなモデルと複雑なモデルを組み合わせたクエリの分類を改善する方法について話すよ。

クエリ分類の重要性

クエリ分類はオンラインショッピングプラットフォームにとって重要だ。ユーザーがアイテムを検索する際、プラットフォームはその意図を素早く判断する必要がある。たとえば、誰かが「ランニングシューズ」を検索したら、システムはそのカテゴリに関連する広告を表示しなきゃいけない。正確な分類があれば、ユーザー体験が向上し、売上も増える。しかし、ユーザー行動のバリエーションや豊富な商品範囲のため、クエリを分類するのは簡単じゃない。

現在の課題

多くのプラットフォームはクエリ分類にシンプルなモデル、例えばFastTextを使っているけど、これは速いから。でも、これらのモデルは必ずしも良い結果を出すわけじゃない。特に、あまり知られていないクエリでは、あまり履歴データがないかもしれない。一方で、BERTのような高度なモデルは複雑なクエリをよりよく理解できるけど、処理能力と時間がもっと必要だ。このスピードと精度のバランスは、オンラインプラットフォームにとって大きな懸念事項だ。

より良い解決策の必要性

これらの課題に対処するためには、クエリ分類プロセスを強化する方法を見つけることが重要だ。解決策は、精度を向上させつつスピードを損なわないようにしなきゃいけない。だから、異なるモデルの強みを組み合わせるのが良いアプローチかもしれない。こうすることで、プラットフォームはクエリ分類でより良い結果を得られつつ、応答時間を短く保てる。

提案された方法

この記事では「Knowledge Condensation(KC)」という方法を紹介するよ。KCは異なるモデルの能力をブレンドしてクエリ分類を改善することを目的としている。主なアイデアは、より複雑なモデルを使ってシンプルで速いモデルのための追加のトレーニングデータを提供することだ。これによって、シンプルなモデルは過去の経験や新しいデータから学ぶことができ、パフォーマンスが向上する。

モデルの理解

FastText

FastTextは軽量なモデルで、テキストを素早く処理できる。スピードが求められるタスク、例えばオンライン広告には理想的だけど、過去に見たことのないクエリやあまり履歴データがないものには苦労することもある。そのため、特定の状況では効果が薄れることもある。

BERT

一方、BERTは言葉の背後にある文脈や意味を理解するのが得意な複雑なモデルだ。新しいクエリを理解し、一般化する能力が強力なツールになる。ただ、BERTは重たくて実行に時間がかかるため、リアルタイムのアプリケーションにはあまり向かない。

Knowledge Condensationフレームワーク

Knowledge CondensationフレームワークはFastTextとBERTの強みを組み合わせている。これがどう機能するかは以下の通り:

  1. BERTでのオフライントレーニング:最初のステップは、BERTを使って過去のデータを分析する。過去のユーザー行動を理解することで、シンプルなFastTextモデルが学ぶべき関連データを見つける手助けをする。

  2. データ生成:BERTから得られた洞察を使って、新しいトレーニングデータを生成する。この強化されたデータセットには、FastTextが以前に遭遇したことのない例が含まれる。

  3. FastTextのトレーニング:この新しいデータセットでFastTextをトレーニングする。目標は、FastTextがさまざまなクエリタイプ、特にあまり一般的でないものについてより良い知識を持つことだ。

  4. オンラインでの提供:最後に、トレーニングされたFastTextモデルをリアルタイムのクエリ分類に戻して使う。

分散型マルチエキスパート戦略

このフレームワークをさらに効果的にするために、複数の専門化モデルを用いる戦略が導入されている。この方法は、異なるクエリがその頻度やコンテキストに基づいて異なる処理を必要とすることを認識している。このアプローチでは、高、中、低頻度の特定のクエリタイプに焦点を当てた複数のモデルをトレーニングする。これにより、各モデルが自分の分野でエキスパートになり、全体の分類結果が改善される。

実験結果

この組み合わせたアプローチの効果を評価するために、さまざまなテストが行われた。テストプロセスには、オフライン実験と実際の環境でのオンラインA/Bテストが含まれている。結果は、Knowledge Condensationフレームワークを実装した後、クエリ分類のパフォーマンスが明確に向上したことを示している。

オフラインバリデーション

オフラインテストでは、モデルが精度や正確性を含む複数の指標で評価された。このフレームワークは、単独のFastTextと比較してパフォーマンスが一貫して向上したことを示し、新しいトレーニングデータが結果を改善することを検証している。

オンラインA/Bテスト

さらに、オンラインA/Bテストを通じて追加の検証が行われた。このシナリオでは、ユーザーを二つのグループに分け、一方は従来のFastTextモデルを体験し、もう一方はKnowledge Condensationメソッドを使用した強化版を体験した。ページビュー、アイテムクリック、コンバージョン率などの指標は、新しいアプローチがユーザーのエンゲージメントと満足度を向上させることにつながったことを示している。

結論

これらの実験から得られた結果は、Knowledge CondensationがFastTextの分類性能を成功裏に向上させたことを示している。過去のデータと新しく生成されたデータの両方からモデルがより良く学べるようになった。このマルチエキスパート戦略は、クエリの頻度に基づいたカスタマイズされたソリューションを可能にすることで、さらに強化された。

今後の展望

今後、Knowledge Condensationフレームワークをさらに洗練させる機会がある。いくつかの探求可能な分野には次のようなものがある:

  • リアルタイムデータ統合:モデルをさらに強化するためにライブデータフィードバックを取り入れること。
  • モデルの多様性拡大:異なる基準に基づいて、3つ以上のモデルを専門家として拡張すること。
  • ユーザー意図の理解:ユーザーの意図を把握するためのより強力なメカニズムを開発し、さらに正確な広告ターゲティングを実現すること。

継続的な改善と革新を通じて、オンライン広告の未来はよりユーザーフレンドリーで効率的になり、ビジネスと消費者の両方に利益をもたらすことができる。

オリジナルソース

タイトル: Towards Better Query Classification with Multi-Expert Knowledge Condensation in JD Ads Search

概要: Search query classification, as an effective way to understand user intents, is of great importance in real-world online ads systems. To ensure a lower latency, a shallow model (e.g. FastText) is widely used for efficient online inference. However, the representation ability of the FastText model is insufficient, resulting in poor classification performance, especially on some low-frequency queries and tailed categories. Using a deeper and more complex model (e.g. BERT) is an effective solution, but it will cause a higher online inference latency and more expensive computing costs. Thus, how to juggle both inference efficiency and classification performance is obviously of great practical importance. To overcome this challenge, in this paper, we propose knowledge condensation (KC), a simple yet effective knowledge distillation framework to boost the classification performance of the online FastText model under strict low latency constraints. Specifically, we propose to train an offline BERT model to retrieve more potentially relevant data. Benefiting from its powerful semantic representation, more relevant labels not exposed in the historical data will be added into the training set for better FastText model training. Moreover, a novel distribution-diverse multi-expert learning strategy is proposed to further improve the mining ability of relevant data. By training multiple BERT models from different data distributions, it can respectively perform better at high, middle, and low-frequency search queries. The model ensemble from multi-distribution makes its retrieval ability more powerful. We have deployed two versions of this framework in JD search, and both offline experiments and online A/B testing from multiple datasets have validated the effectiveness of the proposed approach.

著者: Kun-Peng Ning, Ming Pang, Zheng Fang, Xue Jiang, Xi-Wei Zhao, Chang-Ping Peng, Zhan-Gang Lin, Jing-He Hu, Jing-Ping Shao

最終更新: 2023-11-19 00:00:00

言語: English

ソースURL: https://arxiv.org/abs/2308.01098

ソースPDF: https://arxiv.org/pdf/2308.01098

ライセンス: https://creativecommons.org/licenses/by/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。

著者たちからもっと読む

類似の記事