エネルギー効率の良いスパイキングニューラルネットワークの進展
新しい手法がエネルギー効率の良いAIのためのスパイキングニューラルネットワークの学習を改善する。
Richard Naud, M. Stuck, X. Wang
― 1 分で読む
目次
エネルギー効率の良い人工知能(AI)手法の必要性が高まってるよね。特に、神経ネットワークに基づくAIシステムはますますエネルギーを必要とするから、 neuromorphic computing って分野が目指してるのは、人間の脳の動き方を真似たコンピュータシステムを作ること。これがAIに関連するエネルギー消費を減らす手助けになるかも。
脳がエネルギーを節約する一つの方法は、コミュニケーションの仕方が伝統的な神経ネットワークとは違うこと。通常のネットワークは連続信号を使うけど、neuromorphic システムはスパイクって呼ばれる短い明確な信号を使うんだ。このスパイクへのシフトや低い精度、効率的なデータパターンを使うことで、かなりのエネルギー節約ができるかもしれない。
neuromorphic システムがエネルギー効率が良いもう一つの理由は、処理と記憶を一つの場所で組み合わせてるから。これで、従来のコンピュータで見られる特定の計算上の課題を避けられるんだ。
今は主に伝統的なコンピュータ方法でこれらのシステムをトレーニングして、学習した情報を後でエネルギー効率の良い性能のために特化したハードウェアに移すって感じ。ただ、もっと効果的なのは、neuromorphic ハードウェアそのもので直接トレーニングすること。そうすると、エネルギーをさらに減らせて、システムが新しい状況に適応しながら学び続けられる。これを実現するには、neuromorphic ハードウェアの特異なニーズに合わせた新しい訓練方法が必要なんだ。
スパイキング神経ネットワーク(SNN)の学習
スパイキング神経ネットワークをトレーニングする方法の開発で、いろんな技術を探ることになった。これらの方法は、ローカルな変化に頼らないものと、頼るものに分けられる。ローカルな方法はさらに、バースト依存の可塑性とスパイクタイミング依存の可塑性に分けられる。
ノンローカル学習方法
ローカルな学習規則を使わない方法としては、伝統的な神経ネットワークをスパイキングネットワークに変換することや、バックプロパゲーションを時間を通じて使うことがある。変換方法では、通常の神経ネットワークがバックプロパゲーションを通じて学んでから、スパイキングネットワークに変換されるんだけど、この変換はしばしば性能の問題を引き起こすことがあって、追加の調整が必要になることも。
バックプロパゲーションを時間を通じて使う方法は、スパイキングネットワークでエラー修正ができるけど、複雑で、neuromorphic システムに必要なオンチップ学習方法には向いてない。これらのノンローカルな方法は、ローカルな方法と比較するための基準になる。
スパイクタイム依存可塑性(STDP)学習法
STDPはローカルなアプローチで、スパイクのタイミングに基づいてニューロン間の接続の強さを変えるんだ。この方法は完全にローカルで、近くのニューロンの活動だけに基づいて調整される。一つの特定のSTDP法は簡単なタスクで良い結果を出したけど、より複雑な問題や多層ネットワークにスケールアップする時に制限があるんだ。
バーストプロップ学習法
バーストプロップは、フィードバックエラー信号と推論信号の両方を利用するローカルな学習アルゴリズムのセットなんだ。これらのアルゴリズムはバックプロパゲーションに似た学習を可能にするけど、変更の信号としてバーストイベントを使うんだ。ただ、過去の試みは主に一番簡単なタスクにしか焦点を当ててなかった。
バーストプロップ方法の改善
より複雑なタスクのためにバーストプロップ法を改良するために、ニューロンのソーマ(主要部分)から樹状突起(受信端)へのフィードバックループを導入することと、コミュニケーションのために二種類のバーストを作ることを提案するよ。MNISTの数字分類ベンチマークを使って、我々の強化された方法が数字を分類するのにうまく学習できることを示すよ。
ネットワーク設定
ネットワークの概要
ネットワーク内の各ニューロンは、2つのコンパートメントで構成されてる。ソーマは受信した情報を処理し、樹状突起はフィードバックを統合する。入力層には784のユニットがあり、各ピクセルを表してる。隠れ層は様々なニューロンユニットからなり、出力層には10個のニューロンがあって、10クラスの数字を表してる。
信号伝達
ネットワーク内では、信号がいろんな方法でニューロンの間で送られる。フィードフォワード信号は、層から層に情報を伝達し、受信信号を受け取ると瞬時に発生する。フィードバック信号は、上位層から低層に影響を与えるためにバーストに基づいて動作する。
教えの信号と学び
学習を導くために、ネットワークのトップで教えの信号を導入し、パフォーマンスに対するフィードバックを提供する。目標は、正しい数字クラスを表すニューロンがより活発になって、他のニューロンは抑えられるように、シナプス接続を改善すること。
各ニューロンはまた、安定した活動レベルを維持するための正則化信号も受け取る。これらの努力は、ネットワーク内のスパース性と信頼性を促進し、学習プロセスを助ける。
学習ルール
我々のアプローチは、ニューロンの活動とフィードバックに基づいて接続の変化が起こるローカルな学習ルールを使う。この調整は、プレシナプスニューロンの活動、ポストシナプスの活動、フィードバックエラーの3つの主要な要素に影響される。
低解像度シナプス重み
これらのネットワークを実際のneuromorphic ハードウェアで実装する際には、シナプス重みが持てる異なる値の数を考慮することが重要だ。ハードウェアは通常、限られた範囲の重みの値しかサポートできないけど、我々は学習が低ビット解像度でも成功することを発見した。
MNISTデータセットからの結果
MNISTデータセットで我々の方法をテストした結果、良い成果が出た。署名モデルと無署名モデルの両方がうまく機能した、特に署名モデルは深いネットワークでも高いテスト精度を達成した。これは、我々のアプローチが効果的に学習し、課題に適応できることを示してる。
我々のローカル学習方法と伝統的なバックプロパゲーション方法を比較したところ、後者は単純なネットワークではやや良い成果を出したけど、深い層ではそれほどではなかった。面白いことに、学習中に特定の層をフリーズさせると、我々のネットワークはまだ成功を収めることができた。これは、学習が出力層だけに限られず、他の層にも効果的に伝播していることを示唆している。
フィードバックアライメント
我々の方法が、フィードバックとフィードフォワード接続の重みの対称性に頼らずに機能するかをテストした。フィードバックアライメントやダイレクトフィードバックアライメントって技術を使っても、我々のネットワークはまだうまく機能した。これが実際のアプリケーションに向けての準備ができてることを示してる。
結論
要するに、我々はスパイキング神経ネットワークのためのローカルな学習アルゴリズムを開発して、いくつかの課題をうまく解決した。既存のバーストプロップ方法を強化して、より複雑なタスクに適用することで、これらのネットワークが限られた重みの解像度で効率的に動作できることを示した。
我々の発見は、エネルギー効率の良いAIシステムの開発において、こういった生物にインスパイアされた学習方法のさらに探求を奨励する。これらの原則をneuromorphic ハードウェアに実装することで、未来において賢くて適応力のあるシステムへの道が開けるかもしれない。
タイトル: A Burst-Dependent Algorithm for Neuromorphic On-Chip Learning of Spiking Neural Networks
概要: The field of neuromorphic engineering addresses the high energy demands of neural networks through brain-inspired hardware for efficient neural network computing. For on-chip learning with spiking neural networks, neuromorphic hardware requires a local learning algorithm able to solve complex tasks. Approaches based on burst-dependent plasticity have been proposed to address this requirement, but their ability to learn complex tasks has remained unproven. Specifically, previous burst-dependent learning was demonstrated on a spiking version of the XOR problem using a network of thousands of neurons. Here, we extend burst-dependent learning, termed Burstprop, to address more complex tasks with hundreds of neurons. We evaluate Burstprop on a rate-encoded spiking version of the MNIST dataset, achieving low test classification errors, comparable to those obtained using backpropagation through time on the same architecture. Going further, we develop another burst-dependent algorithm based on the communication of two types of error-encoding events for the communication of positive and negative errors. We find that this new algorithm performs better on the image classification benchmark. We also tested our algorithms under various types of feedback connectivity, establishing that the capabilities of fixed random feedback connectivity is preserved in spiking neural networks. Lastly, we tested the robustness of the algorithm to weight discretization. Together, these results suggest that spiking Burstprop can scale to more complex learning tasks and can thus be considered for self-supervised algorithms while maintaining efficiency, potentially providing a viable method for learning with neuromorphic hardware.
著者: Richard Naud, M. Stuck, X. Wang
最終更新: 2024-11-28 00:00:00
言語: English
ソースURL: https://www.biorxiv.org/content/10.1101/2024.07.19.604308
ソースPDF: https://www.biorxiv.org/content/10.1101/2024.07.19.604308.full.pdf
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた biorxiv に感謝します。