メモリ内計算のためのディープニューラルネットワーク最適化
新しいフレームワークがIMCアーキテクチャにおけるDNNのエネルギー効率を改善する。
― 1 分で読む
深層ニューラルネットワーク(DNN)は画像認識タスクでよく使われてて、すごい結果を出すんだ。最近の技術の進歩で、よりエネルギー効率の良いインメモリコンピューティング(IMC)アーキテクチャが進化してるんだけど、周辺回路に関する課題があって、これがエネルギーやスペースをたくさん消費するんだよね。
DNNをIMCアーキテクチャで最大限に活かすには、ネットワークの設計とハードウェアを一緒に見ることが重要なんだ。1つの有望なアプローチは、両方を同時に最適化するシステムを開発すること。この記事では、まさにそれを実現する新しいフレームワークを紹介するよ。
コーサーチの重要性
IMCアーキテクチャ用のDNNを設計する時、ネットワークの構造がハードウェアとどう相互作用するかを考えるのが大事だよね。以前のデザインは多くの場合、一つの側面だけを最適化してたから、効率の悪い解決策になってたんだ。DNNアーキテクチャと周辺回路のパラメータを同時にコーサーチすることで、全体的なパフォーマンスを向上させることができるんだ。
このアプローチでは、ネットワーク設計とハードウェア仕様の最適な組み合わせを見つけることができる。具体的には、チャンネルの深さ、コンバーターの種類、クロスバーの構成など、さまざまなパラメータを考慮する必要があるよ。
フレームワークの概要
ここで提案する新しいフレームワークは、2つの主要な検索フェーズに焦点を当ててる。
- フェーズ1では、特定のパラメータを持つ適切なDNNモデルを見つけることを目指してて、指定されたエリアサイズ内で遅延を最小化することを狙ってる。
- フェーズ2は、このモデルをさらに洗練させるために、データの精度や入力設定に関連する最適な構成を探すけど、初期モデルは変えないんだ。
この2フェーズのアプローチによって、システムはエネルギーの使用とパフォーマンスをより効果的に最適化できるんだ。
設計における主要なパラメータ
IMCアーキテクチャ用のDNNを設計する際に考慮すべきいくつかの重要なパラメータがあるよ:
チャンネルの深さ(CD):ネットワークの各層で使用されるチャンネルの数を指すんだ。チャンネルが多いほど特徴表現が良くなるけど、エネルギー使用量やスペース消費が増える。
カラムシェアリング(CS):回路内でどれだけのカラムを共有するかを決めるパラメータで、エリアサイズや遅延に影響する。
入力精度(IP):入力のビット深度を制御するんだ。高い精度は精度を向上させるけど、処理時間が長くなることが多い。
ADCタイプと精度(AT, AP):アナログ・デジタルコンバーター(ADC)のタイプと精度は、エネルギー消費やハードウェアが占めるエリアに影響を与える。
結果と利点
この新しいフレームワークを使った結果は、前のモデルと比べてかなりの改善が見られたよ。提案された方法は、エネルギー消費を減らし、エリア要件を小さくしつつ、高い精度を維持したんだ。
たとえば、いくつかのデータセットでテストしたところ、最適化されたモデルは以前のデザインよりもかなり少ないエネルギーとスペースを必要としたので、より効率的な処理が可能になった。
既存のソリューションとの比較
この新しいフレームワークを過去の取り組みと比較すると、いくつかの利点が際立つよ。以前のモデルは、ハードウェアかソフトウェアのどちらかだけを最適化することが多くて、改善が限られてた。でも、この新しいコーサーチ技術は、エネルギーとパフォーマンスの結果が良くなったんだ。
多くの場合、以前の方法は一定の精度を達成したけど、その代わりにエネルギー使用が増えた。新しいシステムは高い精度を維持しつつ、エネルギー消費を大幅に減らしてるんだ。
将来の影響
技術が進化し続ける中で、エネルギー効率の良いシステムの必要性は高まってる。このフレームワークは、IMCハードウェアでのパフォーマンスを向上させるためにディープラーニングモデルを最適化することで、そのニーズに応えてるんだ。これが今後の研究と開発の基盤を築くことになる。
DNNアーキテクチャとハードウェアの接続を改善することで、より高度なアプリケーションへの道が開けるかも。たとえば、スマートフォンでの画像認識を早くしたり、大規模システムでのデータ処理をより効率的にしたりできるかもしれない。
結論
提案されたフレームワークは、IMCアーキテクチャで効率的なDNN実装を目指す上で大きな前進を示してる。ネットワーク設計とハードウェア構成の両方をコーサーチすることで、高いエネルギー効率と精度を達成することが可能なんだ。
こうした進展は、現在の技術を向上させるだけでなく、ディープラーニングやコンピューティングの分野での将来の発展にも影響を与えることが期待されるよ。
タイトル: XPert: Peripheral Circuit & Neural Architecture Co-search for Area and Energy-efficient Xbar-based Computing
概要: The hardware-efficiency and accuracy of Deep Neural Networks (DNNs) implemented on In-memory Computing (IMC) architectures primarily depend on the DNN architecture and the peripheral circuit parameters. It is therefore essential to holistically co-search the network and peripheral parameters to achieve optimal performance. To this end, we propose XPert, which co-searches network architecture in tandem with peripheral parameters such as the type and precision of analog-to-digital converters, crossbar column sharing and the layer-specific input precision using an optimization-based design space exploration. Compared to VGG16 baselines, XPert achieves 10.24x (4.7x) lower EDAP, 1.72x (1.62x) higher TOPS/W,1.93x (3x) higher TOPS/mm2 at 92.46% (56.7%) accuracy for CIFAR10 (TinyImagenet) datasets. The code for this paper is available at https://github.com/Intelligent-Computing-Lab-Yale/XPert.
著者: Abhishek Moitra, Abhiroop Bhattacharjee, Youngeun Kim, Priyadarshini Panda
最終更新: 2023-11-21 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2303.17646
ソースPDF: https://arxiv.org/pdf/2303.17646
ライセンス: https://creativecommons.org/publicdomain/zero/1.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。