埋込みシステム向けの深層ニューラルネットワークの最適化
新しい方法が小型デバイスのDNN効率を向上させて、精度を落とさずに済む。
― 1 分で読む
深層ニューラルネットワーク(DNN)は、リソースが限られたデバイス、例えば小さな組込みシステムでますます活用されてるんだ。これらのシステムは、大量のセンサー情報を処理するのが難しいことが多い。こうした課題を解決するためには、DNNを小さく、効率的にする方法を見つけつつ、予測の精度を失わないことが重要だ。これに対処する効果的な手法の一つがマルチオブジェクティブ最適化で、これはメモリ使用量や計算負荷を最小限に抑えつつ、予測品質を維持するために異なる目標のバランスを取ることができる。
DNN最適化の課題
小さなデバイスにDNNを展開するのは特有の課題があるんだ。これらのデバイスは、メモリ容量が小さかったり、処理速度が遅かったりといった厳しい制約がある。例えば、1MB未満のフラッシュメモリや512KB未満のRAMしか持たないデバイスもある。こうした制約のために、こういうプラットフォーム向けにDNNを設計するには、メモリの利用可能性や処理時間など、すべての目標を考慮する慎重な計画が必要なんだ。
この競合する目標の間でのバランスを見つけるのは複雑なんだ。通常、すべての目標を完璧に満たす単一の解は存在しない。代わりに、パレートフロントと呼ばれる複数の選択肢を探る必要がある。このパレートフロントは、目標間の異なるトレードオフを示していて、ある目標を改善すると別の目標が悪化する場合があるんだ。
マルチオブジェクティブ最適化の概要
マルチオブジェクティブ最適化は、いくつかの目標を同時に最大化または最小化することを目指してる。これは、すべての目標に関して最適な解を見つけるためのさまざまな可能な解を調べる。各解は、求められる目標に対してどれだけパフォーマンスを発揮するかで評価される。DNNの場合、目標には通常、精度、メモリ使用量、計算要件が含まれるんだ。
解がどれだけうまく機能するかを評価するために、研究者はさまざまな指標を使用してる。よく使われる指標の一つはハイパーボリューム指標で、これはある解のセットが参照点に対して支配する空間のボリュームを評価するものだ。これにより、解の範囲がターゲット空間をどれだけカバーしているかを理解するのに役立つ。
DNN最適化の最前線
DNNを最適化するために様々な手法が開発されてる。例えば、NSGA-IIのような進化的アルゴリズムがマルチオブジェクティブ最適化問題に対処するために人気なんだ。ただ、これらのアルゴリズムは良い解を見つけるために多くの評価を必要とすることがあり、DNNを扱う際には時間がかかることになる。
もう一つの代替手法はベイズ最適化(BO)で、これは必要な評価の数を減らすために設計されている。BOは目標をブラックボックスとして扱い、モデルを構築する。新しいデータポイントが収集されると、このモデルが更新され、次の評価でより情報に基づいたサンプリングが可能になる。特に、DNNのトレーニングのように評価プロセスがコスト高な場合には非常に便利なんだ。
提案された手法
この研究では、組込みデバイス向けにDNN圧縮技術とマルチオブジェクティブ最適化を組み合わせたハイブリッドアプローチを紹介してる。目標は、精度、メモリ使用量、計算複雑性の間で良いトレードオフを提供するDNNの構成を特定することだ。このアプローチは2つの主要なコンポーネントを使用してる:
マルチオブジェクティブ最適化ループ:このループはDNNをトレーニング・圧縮するための新しいハイパーパラメータのセットを反復的に提案する。
目的関数評価器:このコンポーネントは提案されたハイパーパラメータを評価するためにDNNをトレーニング、プルーニング、量子化して、精度、メモリ、FLOPsに関する目的値を得る。
拡張ランダムサーチの活用
この最適化戦略の中心には、シンプルだけど効果的な強化学習手法である拡張ランダムサーチ(ARS)がある。ARSはランダムサンプルから学び、そのパフォーマンスに基づいてポリシーを調整する。最適化ループ内でARSを使用することで、ハイパーパラメータの探索空間を効率的に探ることができるんだ。
ARSアプローチは、競合するポリシーのアンサンブルを作成し、各ポリシーが定義された制約の下でDNNのパフォーマンスを改善しようとする。ポリシーは反復的に更新され、過去の評価から学び、新たな探索空間の有望なエリアに焦点を当てることができる。
データセットでの評価
提案された手法の効果をテストするために、CIFAR10(RGB画像で構成)と日常の人間活動を分類するためのデータセットという2つの有名なデータセットを使って実験が行われた。それぞれの実験で目指したのは、マイクロコントローラに典型的なメモリや計算要件の制約に基づいてDNNを最適化することだ。
評価プロセスには、DNNアーキテクチャの縮小版をトレーニングし、DNNと圧縮方法に関連するハイパーパラメータを調整することが含まれてた。目標間のトレードオフに焦点を当てることで、ARS-MOBOpt手法は従来の手法と比較して改善された結果を得ることができたんだ。
結果と比較
これらの評価からの結果は、提案されたARS-MOBOpt手法が他の一般的な最適化戦略、人気のベイズ法や進化的手法を一貫して上回ったことを示している。どちらのケースでも、ARS-MOBOptはターゲット制約を満たす解を見つけつつ、精度と効率の面でもより良いパフォーマンスを示したんだ。
特に目を引いたのは、ARS-MOBOptアプローチによって見つかった実行可能な解の多様性が大きいこと。これにより、方法が高品質な解を見つけるだけでなく、展開のためのより広い範囲の実行可能な選択肢を提供するのに効果的であることが示された。
パフォーマンスの理解
ARS-MOBOptで観察されたパフォーマンス向上に寄与する要因を理解するために、さらなる分析が行われた。サンプリング方向の数などの重要なハイパーパラメータが結果に大きく影響することがわかった。これらのハイパーパラメータを最適化することで、探索空間のより良い探索と競合ポリシーの学習プロセスの向上が可能になったんだ。
加えて、異なるパラメータが最適化の風景をナビゲートするアルゴリズムの能力にどのように影響するかを調べた。ARS手法は探索と利用のバランスをうまく取って、局所的な最小値に引っかかることなく最適解への収束を改善したんだ。
結論
この研究は、小型の組込みデバイス向けに深層ニューラルネットワークを最適化するための有望なアプローチを示してる。マルチオブジェクティブ最適化とDNN圧縮技術を組み合わせることで、提案されたARS-MOBOpt手法はリソース制約のあるプラットフォームへのDNNの展開における課題に効果的に対処してる。
既存のアルゴリズムに対する一貫した改善と多様な解の探索に焦点を当てたこの手法は、日常的な技術におけるインテリジェントシステムの効率的な展開の新しい道を開くことになる。今後の研究では、これらの発見を基に最適化戦略をさらに強化し、より広範なアプリケーション領域に適応していく予定なんだ。
タイトル: Combining Multi-Objective Bayesian Optimization with Reinforcement Learning for TinyML
概要: Deploying Deep Neural Networks (DNNs) on microcontrollers (TinyML) is a common trend to process the increasing amount of sensor data generated at the edge, but in practice, resource and latency constraints make it difficult to find optimal DNN candidates. Neural Architecture Search (NAS) is an excellent approach to automate this search and can easily be combined with DNN compression techniques commonly used in TinyML. However, many NAS techniques are not only computationally expensive, especially hyperparameter optimization (HPO), but also often focus on optimizing only a single objective, e.g., maximizing accuracy, without considering additional objectives such as memory consumption or computational complexity of a DNN, which are key to making deployment at the edge feasible. In this paper, we propose a novel NAS strategy for TinyML based on Multi-Objective Bayesian optimization (MOBOpt) and an ensemble of competing parametric policies trained using Augmented Random Search (ARS) Reinforcement Learning (RL) agents. Our methodology aims at efficiently finding tradeoffs between a DNN's predictive accuracy, memory consumption on a given target system, and computational complexity. Our experiments show that we outperform existing MOBOpt approaches consistently on different data sets and architectures such as ResNet-18 and MobileNetV3.
著者: Mark Deutel, Georgios Kontes, Christopher Mutschler, Jürgen Teich
最終更新: 2024-06-06 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2305.14109
ソースPDF: https://arxiv.org/pdf/2305.14109
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。