书籍详情
深度学习导论
作者:[美] 尤金·查尔尼克(Eugene Charniak) 著,沈磊,郑春萍 译
出版社:人民邮电出版社
出版时间:2020-04-01
ISBN:9787115529916
定价:¥49.00
购买这本书可以去
内容简介
《深度学习导论》讲述了前馈神经网络、Tensorflow、卷积神经网络、词嵌入与循环神经网络、序列到序列学习、深度强化学习、无监督神经网络模型等深度学习领域的基本概念和技术,通过一系列的编程任务,向读者介绍了热门的人工智能应用,包括计算机视觉和自然语言处理等。本书编写简明扼要,理论联系实践,每一章都包含习题以及补充阅读的参考文献。本书既可作为高校人工智能课程的教学用书,也可供从业者入门参考。本书要求读者熟悉线性代数、多元微积分、概率论与数理统计知识,另外需要读者了解Python编程。
作者简介
作者简介尤金·查尔尼克(Eugene Charniak),美国布朗大学计算机科学和认知科学教授,博士毕业于MIT,博士导师是人工智能之父马文·明斯基。他是国际知名的人工智能研究者,美国人工智能学会(AAAI)会士,2011年获美国计算语言学会(ACL)终身成就奖。除本书之外,他还撰写了《统计语言学习》《人工智能编程》等图书。译者简介沈磊,美国计算语言学会(ACL)会员,中国计算机学会(CCF)会员,博士毕业于北京航空航天大学计算机学院,博士研究方向为人工智能、模式识别,现为vivo公司北京AI研究院NLP算法专家,主要方向为自然语言理解和自动问答。她在自然语言处理及推荐算法方向发表了多篇学术论文,申请了5项专利。郑春萍,教育学博士,北京邮电大学人文学院副教授,主要研究方向为应用语言学与计算机辅助翻译。她是美国国务院“英语语言学者项目”访问学者、英国曼彻斯特大学人文艺术学院访问学者,曾获北京市高等教育教学成果一等奖、北京市高校青年教学名师奖、中央电视台“希望之星”英语风采大赛全国总决赛**指导教师奖等奖项。她主持了国家社科基金、教育部霍英东青年教师基金及教育部人文社科基金等省部级课题6项,发表学术论文40余篇,主编教材2部,出版专著1部、译著2部。
目录
第 1章 前馈神经网络 1
1.1 感知机 3
1.2 神经网络的交叉熵损失函数 7
1.3 导数与随机梯度下降 11
1.4 编写程序 15
1.5 神经网络的矩阵表示 17
1.6 数据独立性 19
1.7 参考文献和补充阅读 20
1.8 习题 21
第 2章 Tensorflow 23
2.1 预备知识 23
2.2 TF程序 26
2.3 多层神经网络 31
2.4 其他方面 34
2.4.1 检查点 34
2.4.2 tensordot 35
2.4.3 TF变量的初始化 37
2.4.4 TF图创建的简化 39
2.5 参考文献和补充阅读 40
2.6 习题 40
第3章 卷积神经网络 43
3.1 滤波器、步长和填充 43
3.2 一个简单的TF卷积例子 49
3.3 多层卷积 51
3.4 卷积细节 54
3.4.1 偏置 54
3.4.2 卷积层 55
3.4.3 池化运算(pooling) 55
3.5 参考文献和补充阅读 56
3.6 习题 57
第4章 词嵌入与循环神经网络 59
4.1 语言模型的词嵌入 59
4.2 构建前馈语言模型 63
4.3 改进前馈语言模型 65
4.4 过拟合 66
4.5 循环网络 69
4.6 长短期记忆模型 75
4.7 参考文献和补充阅读 78
4.8 习题 78
第5章 序列到序列学习 81
5.1 seq2seq模型 82
5.2 编写一个seq2seq MT程序 84
5.3 seq2seq中的注意力机制 87
5.4 多长度seq2seq 90
5.5 编程练习 91
5.6 参考文献和补充阅读 93
5.7 习题 94
第6章 深度强化学习 97
6.1 值迭代 98
6.2 Q学习 101
6.3 深度Q学习基础 103
6.4 策略梯度法 106
6.5 行动者-评论家方法 112
6.6 经验回放 114
6.7 参考文献和补充阅读 115
6.8 习题 116
第7章 无监督神经网络模型 119
7.1 基本自编码 119
7.2 卷积自编码 122
7.3 变分自编码 126
7.4 生成式对抗网络 132
7.5 参考文献和补充阅读 137
7.6 习题 137
附录A 部分习题答案 139
附录B 参考文献 143
附录C 索引 147
本书赞誉 151
1.1 感知机 3
1.2 神经网络的交叉熵损失函数 7
1.3 导数与随机梯度下降 11
1.4 编写程序 15
1.5 神经网络的矩阵表示 17
1.6 数据独立性 19
1.7 参考文献和补充阅读 20
1.8 习题 21
第 2章 Tensorflow 23
2.1 预备知识 23
2.2 TF程序 26
2.3 多层神经网络 31
2.4 其他方面 34
2.4.1 检查点 34
2.4.2 tensordot 35
2.4.3 TF变量的初始化 37
2.4.4 TF图创建的简化 39
2.5 参考文献和补充阅读 40
2.6 习题 40
第3章 卷积神经网络 43
3.1 滤波器、步长和填充 43
3.2 一个简单的TF卷积例子 49
3.3 多层卷积 51
3.4 卷积细节 54
3.4.1 偏置 54
3.4.2 卷积层 55
3.4.3 池化运算(pooling) 55
3.5 参考文献和补充阅读 56
3.6 习题 57
第4章 词嵌入与循环神经网络 59
4.1 语言模型的词嵌入 59
4.2 构建前馈语言模型 63
4.3 改进前馈语言模型 65
4.4 过拟合 66
4.5 循环网络 69
4.6 长短期记忆模型 75
4.7 参考文献和补充阅读 78
4.8 习题 78
第5章 序列到序列学习 81
5.1 seq2seq模型 82
5.2 编写一个seq2seq MT程序 84
5.3 seq2seq中的注意力机制 87
5.4 多长度seq2seq 90
5.5 编程练习 91
5.6 参考文献和补充阅读 93
5.7 习题 94
第6章 深度强化学习 97
6.1 值迭代 98
6.2 Q学习 101
6.3 深度Q学习基础 103
6.4 策略梯度法 106
6.5 行动者-评论家方法 112
6.6 经验回放 114
6.7 参考文献和补充阅读 115
6.8 习题 116
第7章 无监督神经网络模型 119
7.1 基本自编码 119
7.2 卷积自编码 122
7.3 变分自编码 126
7.4 生成式对抗网络 132
7.5 参考文献和补充阅读 137
7.6 习题 137
附录A 部分习题答案 139
附录B 参考文献 143
附录C 索引 147
本书赞誉 151
猜您喜欢