书籍详情
高能效类脑智能:算法与体系架构
作者:[中]郑楠(Nan Zheng),[美]皮纳基·马祖姆德
出版社:机械工业出版社
出版时间:2021-06-01
ISBN:9787111682998
定价:¥99.00
购买这本书可以去
内容简介
本书主要关注如何构建高能效具有学习能力的脉冲型神经元网络硬件,并且提供建立具有学习能力的脉冲型神经元网络硬件协同设计、协同优化方法。完整地描述从高级算法到底层硬件实现的细节。本书同样涵盖了脉冲型神经元网络中的许多基础知识和关键点。本书从对脉冲型神经元网络的概述开始,讨论基于速率的人工神经网络的应用和训练,介绍实现神经网络的多种方法,如通用处理器和专用硬件,数字加速器和模拟加速器。同时展示了一个为能适应神经网络动态编程而建立的高能效加速器,验证脉冲神经网络的基础概念和流行的学习算法,简介脉冲神经网络硬件。后面的章节为读者介绍三个实现前述章节学习算法的设计案例(两个基于传统CMOS工艺,一个基于新兴的纳米工艺)。本书的结尾对脉冲型神经元网络硬件进行总结与展望。
作者简介
郑楠(Nan Zheng) 2011年本科毕业于上海交通大学信息工程专业,2014年和2018年分别获得美国密歇根大学电气工程硕士和博士学位。他目前是NVIDIA高级深度学习架构师,研究兴趣侧重于机器学习应用的低能耗硬件架构、算法和电路技术。皮纳基·马祖姆德(Pinaki Mazumder) 美国密歇根大学电气工程与计算机科学系教授,他的研究兴趣包括对于量子MOS、自旋电子学、欺骗等离子体、共振隧穿器件等新兴技术的CMOS超大规模集成电路设计、半导体存储系统、CAD工具和电路设计。 译者简介:刘佩林 上海交通大学电子信息与电气工程学院教授,博士生导师。研究领域包括音频、视频、3D信号处理与智能分析,面向机器人的环境感知、人机交互、定位与导航,以及类脑计算与低功耗电路设计等。2017年起任上海交通大学类脑智能应用技术研究中心主任。应忍冬 上海交通大学电子信息与电气工程学院副教授,硕士生导师。研究领域包括嵌入式系统、数字信号处理及VLSI实现架构、人工智能领域的机器思维原理和实现。 薛建伟 上海交通大学电子信息与电气工程学院博士研究生。研究领域包括类脑智能、片上多核系统等。
目录
译者序
前言
致谢
第1章 概述1
1.1 神经网络的历史1
1.2 软件中的神经网络2
1.2.1 人工神经网络2
1.2.2 脉冲神经网络2
1.3 神经形态硬件的需求3
1.4 本书的目标和大纲4
参考文献6
第2章 人工神经网络的基础与学习9
2.1 人工神经网络的工作原理9
2.1.1 推理9
2.1.2 学习10
2.2 基于神经网络的机器学习13
2.2.1 监督学习13
2.2.2 强化学习15
2.2.3 无监督学习17
2.2.4 案例研究:基于动作的启发式动态规划18
2.3 网络拓扑24
2.3.1 全连接神经网络24
2.3.2 卷积神经网络25
2.3.3 循环神经网络27
2.4 数据集和基准29
2.5 深度学习31
2.5.1 前深度学习时代31
2.5.2 深度学习的崛起31
2.5.3 深度学习技术32
2.5.4 深度神经网络示例38
参考文献40
第3章 硬件中的人工神经网络47
3.1 概述47
3.2 通用处理器48
3.3 数字加速器48
3.3.1 数字ASIC实现方法48
3.3.2 FPGA加速器61
3.4 模拟/混合信号加速器62
3.4.1 传统集成技术中的神经网络62
3.4.2 基于新兴非易失性存储器的神经网络68
3.4.3 光学加速器71
3.5 案例研究:一种节能的自适应动态规划加速器的程序设计72
3.5.1 硬件架构73
3.5.2 设计示例78
参考文献82
第4章 脉冲神经网络的工作原理与学习92
4.1 脉冲神经网络92
4.1.1 常见的脉冲神经元模型92
4.1.2 信息编码94
4.1.3 脉冲神经元与非脉冲神经元的比较95
4.2 浅层SNN的学习96
4.2.1 ReSuMe96
4.2.2 Tempotron97
4.2.3 脉冲时间相关可塑性98
4.2.4 双层神经网络中通过调制权重依赖的STDP进行学习的方法101
4.3 深度SNN学习113
4.3.1 SpikeProp113
4.3.2 浅层网络栈113
4.3.3 ANN的转换115
4.3.4 深度SNN反向传播的研究进展116
4.3.5 在多层神经网络中通过调制权重依赖的STDP进行学习的方法116
参考文献128
第5章 脉冲神经网络的硬件实现133
5.1 对专用硬件的需求133
5.1.1 地址事件表示133
5.1.2 事件驱动计算134
5.1.3 渐进精度推理134
5.1.4 实现权重依赖的STDP学习规则的硬件注意事项138
5.2 数字脉冲神经网络142
5.2.1 大规模脉冲神经网络专用集成电路142
5.2.2 中小型数字脉冲神经网络147
5.2.3 脉冲神经网络中的硬件友好型强化学习149
5.2.4 多层脉冲神经网络中的硬件友好型监督学习153
5.3 模拟/混合信号脉冲神经网络161
5.3.1 基本构建块161
5.3.2 大规模模拟/混合信号CMOS脉冲神经网络163
5.3.3 其他模拟/混合信号CMOS脉冲神经网络专用集成电路166
5.3.4 基于新兴纳米技术的脉冲神经网络166
5.3.5 案例研究:脉冲神经网络中基于忆阻器交叉开关的学习169
参考文献183
第6章 总结190
6.1 展望190
6.1.1 脑启发式计算190
6.1.2 新兴的纳米技术191
6.1.3 神经形态系统的可靠计算192
6.1.4 人工神经网络和脉冲神经网络的融合193
6.2 结论194
参考文献194
附录197
术语表205
前言
致谢
第1章 概述1
1.1 神经网络的历史1
1.2 软件中的神经网络2
1.2.1 人工神经网络2
1.2.2 脉冲神经网络2
1.3 神经形态硬件的需求3
1.4 本书的目标和大纲4
参考文献6
第2章 人工神经网络的基础与学习9
2.1 人工神经网络的工作原理9
2.1.1 推理9
2.1.2 学习10
2.2 基于神经网络的机器学习13
2.2.1 监督学习13
2.2.2 强化学习15
2.2.3 无监督学习17
2.2.4 案例研究:基于动作的启发式动态规划18
2.3 网络拓扑24
2.3.1 全连接神经网络24
2.3.2 卷积神经网络25
2.3.3 循环神经网络27
2.4 数据集和基准29
2.5 深度学习31
2.5.1 前深度学习时代31
2.5.2 深度学习的崛起31
2.5.3 深度学习技术32
2.5.4 深度神经网络示例38
参考文献40
第3章 硬件中的人工神经网络47
3.1 概述47
3.2 通用处理器48
3.3 数字加速器48
3.3.1 数字ASIC实现方法48
3.3.2 FPGA加速器61
3.4 模拟/混合信号加速器62
3.4.1 传统集成技术中的神经网络62
3.4.2 基于新兴非易失性存储器的神经网络68
3.4.3 光学加速器71
3.5 案例研究:一种节能的自适应动态规划加速器的程序设计72
3.5.1 硬件架构73
3.5.2 设计示例78
参考文献82
第4章 脉冲神经网络的工作原理与学习92
4.1 脉冲神经网络92
4.1.1 常见的脉冲神经元模型92
4.1.2 信息编码94
4.1.3 脉冲神经元与非脉冲神经元的比较95
4.2 浅层SNN的学习96
4.2.1 ReSuMe96
4.2.2 Tempotron97
4.2.3 脉冲时间相关可塑性98
4.2.4 双层神经网络中通过调制权重依赖的STDP进行学习的方法101
4.3 深度SNN学习113
4.3.1 SpikeProp113
4.3.2 浅层网络栈113
4.3.3 ANN的转换115
4.3.4 深度SNN反向传播的研究进展116
4.3.5 在多层神经网络中通过调制权重依赖的STDP进行学习的方法116
参考文献128
第5章 脉冲神经网络的硬件实现133
5.1 对专用硬件的需求133
5.1.1 地址事件表示133
5.1.2 事件驱动计算134
5.1.3 渐进精度推理134
5.1.4 实现权重依赖的STDP学习规则的硬件注意事项138
5.2 数字脉冲神经网络142
5.2.1 大规模脉冲神经网络专用集成电路142
5.2.2 中小型数字脉冲神经网络147
5.2.3 脉冲神经网络中的硬件友好型强化学习149
5.2.4 多层脉冲神经网络中的硬件友好型监督学习153
5.3 模拟/混合信号脉冲神经网络161
5.3.1 基本构建块161
5.3.2 大规模模拟/混合信号CMOS脉冲神经网络163
5.3.3 其他模拟/混合信号CMOS脉冲神经网络专用集成电路166
5.3.4 基于新兴纳米技术的脉冲神经网络166
5.3.5 案例研究:脉冲神经网络中基于忆阻器交叉开关的学习169
参考文献183
第6章 总结190
6.1 展望190
6.1.1 脑启发式计算190
6.1.2 新兴的纳米技术191
6.1.3 神经形态系统的可靠计算192
6.1.4 人工神经网络和脉冲神经网络的融合193
6.2 结论194
参考文献194
附录197
术语表205
猜您喜欢