ニューラルネットワーク 書籍
 
No.2169
VR/AR技術における感覚の提示、拡張技術と最新応用事例
人工知能を用いた五感・認知機能の可視化とメカニズム解明

ニューロモルフィックコンピューティング

〜省エネルギーな機械学習のハードウェア実装に向けて〜


発刊 : 2022年3月   体 裁 : B5判 334頁   定 価:33,000円(税込)

発行:(株)エヌ・ティー・エス   販売:(株)技術情報協会   ISBN:978-4-86043-740-4 C3004

【アカデミック価格対象外書籍です】
アカデミック価格は技術情報協会が発行元、主催元である商品のみです。技術情報協会以外の発行元、主催元の商品はアカデミック価格の対象外となりますのでご了承ください。


AI技術の高度化に不可欠なニューロチップの基礎となる 脳型(ニューロモルフィック)コンピューティングを詳説!!

ハードウェアニューラルネットワークの構築に必要なアルゴ リズムとハードウェアの協調設計と協調最適化の方法論を まとめた類を見ない1冊!!


■原著 『Learning in Energy-Efficient Neuromorphic Computing: Algorithm and Architecture Co-Design』 Wiley-IEEE Press(2020)

■原著者  Nan Zheng 、 Pinaki Mazumder

 

●監訳者(五十音順,2022年2月現在)

小林 亮太 Ryota Kobayashi
東京大学大学院新領域創成科学研究科複雑理工学専攻 准教授
京都大学大学院理学研究科物理学・宇宙物理学専攻博士課程修了,博士(理学)
立命館大学情報理工学部助教,国立情報学研究所助教を経て2020年より現職。
専門分野:計算論的神経科学,時系列データ分析,Web・ソーシャルメディア分析など
ホームページ: https://researchmap.jp/ryokoba

新津 葵一 Kiichi Niitsu
名古屋大学大学院工学研究科電子工学専攻 准教授
慶應義塾大学大学院理工学研究科総合デザイン工学専攻後期博士課程修了,博士(工学)
群馬大学工学部助教,名古屋大学工学部講師,JSTさきがけ研究員(兼任)を経て2018年より現職。
専門分野:集積回路システム工学

●翻訳者(2022年2月現在)

大前 奈月 Natsuki Omae
Huazhong Agricultural University, Chinese Academy of Agricultural Sciences所属
(China Scholarship Council(CSC)フェロー)
東京大学大学院新領域創成科学研究科先端生命科学専攻修了,博士(生命科学)
産業技術総合研究所,東京大学所属後,現在に至る。
専門分野:バイオインフォマティクス,分子細胞生物学,植物・微生物・環境システム,
植物ホルモンネットワーク,進化,分子生物・生態・農学の間をつなぐ,異分野・技術の統合など


■ 目  次

目 次
序 文
謝 辞
原著者・訳者紹介
第 1 章 概 要

  1.1 ニューラルネットワークの歴史
  1.2 ソフトウェアにおけるニューラルネットワーク
    1.2.1 人工ニューラルネットワーク(ANN)
    1.2.2 スパイキングニューラルネットワーク(SNN)
  1.3 ニューロモルフィックハードウェアの必要性
  1.4 本書の目的と概略
  文 献
 

第 2 章 人工ニューラルネットワークの基礎


  2.1 人工ニューラルネットワークの動作原理
    2.1.1 推 論
    2.1.2 学 習
  2.2 ニューラルネットに基づく機械学習
    2.2.1 教師あり学習
    2.2.2 強化学習
    2.2.3 教師なし学習
    2.2.4 事例:行動依存の発見的な動的計画法
      2.2.4.1 Actor?Criticネットワーク
      2.2.4.2 オンライン学習アルゴリズム
    2.2.4.3 仮想更新技術
  2.3 ネットワークトポロジー
    2.3.1 全結合ニューラルネットワーク
    2.3.2 畳み込みニューラルネットワーク
    2.3.3 再帰型ニューラルネットワーク
  2.4 データセットとベンチマーク
  2.5 深層学習
    2.5.1 深層学習以前
    2.5.2 深層学習の台頭
    2.5.3 深層学習の技術
      2.5.3.1 深層学習の性能向上のための技術
      2.5.3.2 ハードウェアのエネルギー効率を改善させる技術
    2.5.4 深層ニューラルネットワークの例
  文 献

 
第 3 章 ハードウェアでの人工ニューラルネットワーク

  3.1 概 要
  3.2 汎用プロセッサ
  3.3 デジタルアクセラレータ
    3.3.1 デジタルASICアプローチ
      3.3.1.1 データ移動とメモリアクセスの最適化
      3.3.1.2 精度のスケーリング(scaling precision)
      3.3.1.3 スパース性の利用
    3.3.2 FPGAを基盤とするアクセラレータ
  3.4 アナログ・ミックスドシグナルアクセラレータ(analog/mixed-signal accelerators)
    3.4.1 従来の集積技術におけるニューラルネットワーク
      3.4.1.1 イン/ニアメモリコンピューティング
      3.4.1.2 ニアセンサーコンピューティング
    3.4.2 新興の非揮発性メモリに基づくニューラルネットワーク
      3.4.2.1 大規模並列エンジンとしてのクロスバー
      3.4.2.2 クロスバーでの学習
    3.4.3 オプティカルアクセラレータ
  3.5 事例研究:適応型動的計画法(ADP)のためのエネルギー効率の高いアクセラレータ
    3.5.1 ハードウェアアーキテクチャ
      3.5.1.1 オンチップメモリ
      3.5.1.2 データパス
      3.5.1.3 コントローラー
    3.5.2 設計の例
  文 献

 
第 4 章 スパイキングニューラルネットワークの動作原理

  4.1 スパイキングニューラルネットワーク
    4.1.1 スパイキングニューロンモデル
      4.1.1.1 Hodgkin?Huxleyモデル
      4.1.1.2 Leaky Integrate?and?Fireモデル
      4.1.1.3 Izhikevichモデル
    4.1.2 情報の符号化
    4.1.3 スパイキングニューロンと人工ニューロン
  4.2 浅い層を持つSNNにおける学習
    4.2.1 ReSuMe
    4.2.2 テンポトロン(Tempotron)
    4.2.3 スパイクタイミング依存可塑性(Spike?Timing?Dependent Plasticity)
    4.2.4 重み依存性STDPを用いた2層ニューラルネットワークの学習
      4.2.4.1 動 機
      4.2.4.2 スパイク時刻を使った勾配の推定
      4.2.4.3 強化学習の例
  4.3 深層SNNでの学習
    4.3.1 SpikeProp
    4.3.2 浅いネットワークを積み重ねる
    4.3.3 ANNからSNNへの変換
    4.3.4 深層SNNにおける誤差逆伝播の最近の進展
    4.3.5 多層SNNにおける重み依存性STDP変調による学習
      4.3.5.1 動 機
      4.3.5.2 重み依存性STDP変調による学習
      4.3.5.3 シミュレーション結果
  文 献

 

第4章 付録:Multi-timescale adaptive threshold モデル(MATモデル)


  4.付.1 Leaky Integrate and Fire モデル
  4.付.2 MATモデル
  4.付.3スパイキングニューロンモデルの比較
  文 献

 

第 5 章 スパイキングニューラルネットワークのハードウェア実装

  5.1 特殊化したハードウェアの必要性
    5.1.1 Address-Event Representation(AER)
    5.1.2 イベント駆動型計算(event-driven computation)
    5.1.3 プログレッシブ精度による推論
    5.1.4 重み依存性STDP学習則を実装するためのハードウェアの考慮事項
      5.1.4.1 集中型メモリアーキテクチャ
      5.1.4.2 分散メモリアーキテクチャ
  5.2 デジタルSNN(digital SNN)
    5.2.1 大規模SNN ASIC
      5.2.1.1 SpiNNaker
      5.2.1.2 TrueNorth
      5.2.1.3 Loihi
    5.2.2 小・中規模デジタルSNN(small/moderate-scale digital SNNs)
      5.2.2.1 ボトムアップアプローチ
      5.2.2.2 トップダウンアプローチ
    5.2.3 SNNにおけるハードウェアに親和性のある強化学習
    5.2.4 多層SNNにおけるハードウェアに親和性のある教師付き学習
      5.2.4.1 ハードウェアアーキテクチャ
      5.2.4.2 CMOS実装結果
  5.3 アナログ/ミックスドシグナルSNN(analog/mixed?signal SNN)
    5.3.1 基本的な構成要素
    5.3.2 大規模アナログ/ミックスドシグナルCMOS SNN(analog/mixed?signal CMOS SNN)
      5.3.2.1 CAVIAR
      5.3.2.2 BrainScaleS
      5.3.2.3 Neurogrid
    5.3.3 他のアナログ/ミックスドシグナルCMOS SNN ASIC(analog/mixed?signal CMOS SNN ASIC)
    5.3.4 新興のナノテクノロジーに基づくSNN
      5.3.4.1 エネルギー効率の高い解決策
      5.3.4.2 シナプス可塑性
    5.3.5 事例研究:SNNにおけるクロスバーを基盤とした学習(memristor crossbar based learning in SNNs)
      5.3.5.1 研究背景
      5.3.5.2 アルゴリズムの改変
      5.3.5.3 非理想性(non-idealities)
      5.3.5.4 ベンチマーク
  文 献

 
第 6 章 結 論

  6.1 展 望
    6.1.1 脳型コンピュータ(Brain-Inspired Computing)
    6.1.2 新しいナノテクノロジー
    6.1.3 ニューロモルフィックシステムによる高信頼なコンピューティング
    6.1.4 ANNとSNNの融合
  6.2 結 論
  文 献

 
付 録
  付.1 ホップフィールドネットワーク
  付.2 ホップフィールドネットワークによるメモリの自己修復
  文 献
 

ニューラルネットワーク 書籍