书籍详情
深度学习:卷积神经网络技术与实践
作者:高敬鹏 著
出版社:机械工业出版社
出版时间:2020-06-01
ISBN:9787111657378
定价:¥79.00
购买这本书可以去
内容简介
本书共11章,主要内容包括深度学习简介、Python基础、神经网络基础、卷积神经网络、经典卷积网络结构、迁移学习、循环神经网络、强化学习、深度强化学习、基于策略的算法更新与趋势等,通过具体案例,将Python语言、深度学习思想、强化学习思想和实际工程完美地结合起来。本书由浅入深,从易到难,各章节既相对独立又前后关联,其*大的特点就是打破了传统书籍的讲解方法,在介绍各部分理论基础的同时,搭配具体实例,通过对相关程序的详细讲解进一步加深对理论基础的理解。
作者简介
暂缺《深度学习:卷积神经网络技术与实践》作者简介
目录
前言
第1章 深度学习简介1
11 机器学习与深度学习1
12 TensorFlow概述2
13 环境搭建3
131 在Windows系统下安装Anaconda3
132 在Anaconda下安装TensorFlow与Keras6
133 Spyder编辑器8
第2章 Python基础11
21 数据类型11
211 数值类型11
212 字符串类型13
213 布尔类型13
22 变量与常量14
23 运算符14
231 运算符概述14
232 运算符优先级15
24 选择与循环15
241 if语句15
242 while循环18
243 for循环20
244 break和continue21
25 列表与元组23
251 创建23
252 查询24
253 修改24
254 删除26
26 字典26
261 字典的创建27
262 字典的常规操作27
263 字典的遍历29
27 函数29
271 函数的定义与调用30
272 参数传递31
28 面向对象编程33
281 类与对象33
282 继承与多态34
29 思考与练习37
第3章 神经网络基础38
31 单层神经网络38
32 多层神经网络39
321 隐藏层39
322 输入层与输出层41
33 激活函数42
331 Sigmoid函数42
332 Tanh函数43
333 Relu函数44
334 Softmax函数45
34 神经网络工作过程45
35 损失函数47
351 均方差函数47
352 交叉熵函数47
36 优化算法48
37 反向传播49
38 泛化能力52
39 多层感知器53
310 MNIST数据集54
3101 下载MNIST数据集54
3102 数据预处理56
311 Keras实现感知器的手写体识别58
3111 单层感知器手写体识别58
3112 多层感知器手写体识别61
312 思考与练习67
第4章 卷积神经网络68
41 卷积神经网络结构及原理68
411 卷积神经网络特点69
412 卷积层70
413 池化层72
414 全连接层73
42 卷积神经网络工作过程74
43 简单卷积神经网络实现MNIST分类76
431 MNIST数据集预处理76
432 简单卷积神经网络搭建77
44 CIFAR-10数据集84
441 下载CIFAR-10数据集85
442 CIFAR-10数据集预处理87
45 简单卷积神经网络实现CIFAR-10分类88
46 思考与练习93
第5章 经典卷积网络结构94
51 LeNet概述94
52 LeNet实现MNIST分类95
521 MNIST数据预处理95
522 基于Keras搭建LeNet网络结构95
523 对LeNet网络模型进行编译、训练、评估与预测98
53 AlexNet概述101
54 AlexNet实现MNIST分类103
541 基于Keras搭建AlexNet网络结构103
542 对AlexNet网络模型进行编译、训练、评估与预测107
55 VGG16概述110
56 VGG16实现MNIST分类111
561 基于Keras搭建VGG16网络结构112
562 对VGG16网络模型进行评估与预测115
57 思考与练习117
第6章 经典卷积网络结构进阶118
61 GoogLeNet概述118
62 GoogLeNet实现MNIST分类119
621 基于Keras搭建GoogLeNet网络结构119
622 对GoogLeNet进行训练、评估与预测125
63 ResNet概述129
64 ResNet50实现MNIST分类131
641 基于Keras搭建ResNet50网络结构131
642 对ResNet50网络模型进行训练、评估与预测138
65 思考与练习142
第7章 迁移学习143
71 基于卷积网络实现迁移学习143
72 InceptionV3实现迁移学习144
73 Xception实现迁移学习150
74 MobileNet实现迁移学习155
75 简单卷积网络实现迁移学习164
76 思考与练习172
第8章 循环神经网络173
81 循环神经网络概述173
82 长短期记忆网络174
821 LSTM前向传播175
822 LSTM反向传播176
83 Reuters数据集176
831 Reuters数据集概述176
832 文本信息预处理177
84 简单RNN实现Reuters分类180
85 LSTM实现Reuters分类185
86 思考与练习190
第9章 强化学习191
91 初识强化学习191
911 什么是强化学习192
912 强化学习能解决什么类型的问题193
913 强化学习如何解决问题194
92 强化学习理论基础194
921 基本组成元素194
922 基本模型196
923 价值函数198
93 求解强化学习—有模型199
931 动态规划与贝尔曼方程199
932 策略迭代200
933 值迭代202
934 值迭代算法实现格子世界202
94 求解强化学习—无模型208
941 蒙特卡罗算法208
942 时间差分法209
943 Q-learning算法210
944 Q-learning实现格子世界211
95 思考与练习213
第10章 深度强化学习214
101 深度强化学习框架214
102 TensorFlow编程216
1021 TensorFlow的计算模型—计算图216
1022 TensorFlow的数据模型—张量219
1023 TensorFlow的运行模型—会话220
1024 TensorFlow变量222
1025 TensorFlow共享变量225
103 Gym的安装及使用226
1031 Gym的安装226
1032 Gym的使用227
104 基于值的算法更新229
1041 Q-learning实现229
1042 DQN算法原理233
1043 DQN算法实现236
1044 DDQN算法原理241
1045 DDQN算法实现243
105 思考与练习248
第11章 基于策略的算法更新与趋势250
111 策略梯度法250
11
第1章 深度学习简介1
11 机器学习与深度学习1
12 TensorFlow概述2
13 环境搭建3
131 在Windows系统下安装Anaconda3
132 在Anaconda下安装TensorFlow与Keras6
133 Spyder编辑器8
第2章 Python基础11
21 数据类型11
211 数值类型11
212 字符串类型13
213 布尔类型13
22 变量与常量14
23 运算符14
231 运算符概述14
232 运算符优先级15
24 选择与循环15
241 if语句15
242 while循环18
243 for循环20
244 break和continue21
25 列表与元组23
251 创建23
252 查询24
253 修改24
254 删除26
26 字典26
261 字典的创建27
262 字典的常规操作27
263 字典的遍历29
27 函数29
271 函数的定义与调用30
272 参数传递31
28 面向对象编程33
281 类与对象33
282 继承与多态34
29 思考与练习37
第3章 神经网络基础38
31 单层神经网络38
32 多层神经网络39
321 隐藏层39
322 输入层与输出层41
33 激活函数42
331 Sigmoid函数42
332 Tanh函数43
333 Relu函数44
334 Softmax函数45
34 神经网络工作过程45
35 损失函数47
351 均方差函数47
352 交叉熵函数47
36 优化算法48
37 反向传播49
38 泛化能力52
39 多层感知器53
310 MNIST数据集54
3101 下载MNIST数据集54
3102 数据预处理56
311 Keras实现感知器的手写体识别58
3111 单层感知器手写体识别58
3112 多层感知器手写体识别61
312 思考与练习67
第4章 卷积神经网络68
41 卷积神经网络结构及原理68
411 卷积神经网络特点69
412 卷积层70
413 池化层72
414 全连接层73
42 卷积神经网络工作过程74
43 简单卷积神经网络实现MNIST分类76
431 MNIST数据集预处理76
432 简单卷积神经网络搭建77
44 CIFAR-10数据集84
441 下载CIFAR-10数据集85
442 CIFAR-10数据集预处理87
45 简单卷积神经网络实现CIFAR-10分类88
46 思考与练习93
第5章 经典卷积网络结构94
51 LeNet概述94
52 LeNet实现MNIST分类95
521 MNIST数据预处理95
522 基于Keras搭建LeNet网络结构95
523 对LeNet网络模型进行编译、训练、评估与预测98
53 AlexNet概述101
54 AlexNet实现MNIST分类103
541 基于Keras搭建AlexNet网络结构103
542 对AlexNet网络模型进行编译、训练、评估与预测107
55 VGG16概述110
56 VGG16实现MNIST分类111
561 基于Keras搭建VGG16网络结构112
562 对VGG16网络模型进行评估与预测115
57 思考与练习117
第6章 经典卷积网络结构进阶118
61 GoogLeNet概述118
62 GoogLeNet实现MNIST分类119
621 基于Keras搭建GoogLeNet网络结构119
622 对GoogLeNet进行训练、评估与预测125
63 ResNet概述129
64 ResNet50实现MNIST分类131
641 基于Keras搭建ResNet50网络结构131
642 对ResNet50网络模型进行训练、评估与预测138
65 思考与练习142
第7章 迁移学习143
71 基于卷积网络实现迁移学习143
72 InceptionV3实现迁移学习144
73 Xception实现迁移学习150
74 MobileNet实现迁移学习155
75 简单卷积网络实现迁移学习164
76 思考与练习172
第8章 循环神经网络173
81 循环神经网络概述173
82 长短期记忆网络174
821 LSTM前向传播175
822 LSTM反向传播176
83 Reuters数据集176
831 Reuters数据集概述176
832 文本信息预处理177
84 简单RNN实现Reuters分类180
85 LSTM实现Reuters分类185
86 思考与练习190
第9章 强化学习191
91 初识强化学习191
911 什么是强化学习192
912 强化学习能解决什么类型的问题193
913 强化学习如何解决问题194
92 强化学习理论基础194
921 基本组成元素194
922 基本模型196
923 价值函数198
93 求解强化学习—有模型199
931 动态规划与贝尔曼方程199
932 策略迭代200
933 值迭代202
934 值迭代算法实现格子世界202
94 求解强化学习—无模型208
941 蒙特卡罗算法208
942 时间差分法209
943 Q-learning算法210
944 Q-learning实现格子世界211
95 思考与练习213
第10章 深度强化学习214
101 深度强化学习框架214
102 TensorFlow编程216
1021 TensorFlow的计算模型—计算图216
1022 TensorFlow的数据模型—张量219
1023 TensorFlow的运行模型—会话220
1024 TensorFlow变量222
1025 TensorFlow共享变量225
103 Gym的安装及使用226
1031 Gym的安装226
1032 Gym的使用227
104 基于值的算法更新229
1041 Q-learning实现229
1042 DQN算法原理233
1043 DQN算法实现236
1044 DDQN算法原理241
1045 DDQN算法实现243
105 思考与练习248
第11章 基于策略的算法更新与趋势250
111 策略梯度法250
11
猜您喜欢