书籍详情
深度学习:基于案例理解深度神经网络
作者:(瑞士),翁贝托·米凯卢奇
出版社:机械工业出版社
出版时间:2019-11-01
ISBN:9787111637103
定价:¥89.00
购买这本书可以去
内容简介
本书探讨了深度学习中的高级主题,例如优化算法、超参数调整、Dropout和误差分析,以及解决在训练深度神经网络时遇到的典型问题的策略。你首先要研究激活函数,主要是单个神经元(relu、sigmoid和swish),了解如何使用TensorFlow进行线性和逻辑回归,并选择正确的代价函数。接着讨论了具有多个层和神经元的更复杂的神经网络结构,并探讨了权重的随机初始化问题。一整章致力于对神经网络误差分析的全面概述,给出了解决来自不同分布的方差、偏差、过度拟合和数据集问题的例子。
作者简介
暂缺《深度学习:基于案例理解深度神经网络》作者简介
目录
译者序 \n
前言 \n
审校者简介 \n
致谢 \n
第1章 计算图和TensorFlow1 \n
1.1 如何构建Python环境1 \n
1.1.1 创建环境3 \n
1.1.2 安装TensorFlow7 \n
1.1.3 Jupyter记事本8 \n
1.2 TensorFlow基本介绍10 \n
1.2.1 计算图10 \n
1.2.2 张量12 \n
1.2.3 创建和运行计算图13 \n
1.2.4 包含tf.constant的计算图13 \n
1.2.5 包含tf.Variable的计算图14 \n
1.2.6 包含tf. placeholder的计算图15 \n
1.2.7 运行和计算的区别18 \n
1.2.8 节点之间的依赖关系18 \n
1.2.9 创建和关闭会话的技巧19 \n
第2章 单一神经元21 \n
2.1 神经元结构21 \n
2.1.1 矩阵表示法23 \n
2.1.2 Python实现技巧:循环和NumPy24 \n
2.1.3 激活函数25 \n
2.1.4 代价函数和梯度下降:学习率的特点32 \n
2.1.5 学习率的应用示例34 \n
2.1.6 TensorFlow中的线性回归示例38 \n
2.2 逻辑回归示例47 \n
2.2.1 代价函数47 \n
2.2.2 激活函数48 \n
2.2.3 数据集48 \n
2.2.4 TensorFlow实现51 \n
2.3 参考文献54 \n
第3章 前馈神经网络56 \n
3.1 网络架构57 \n
3.1.1 神经元的输出59 \n
3.1.2 矩阵维度小结59 \n
3.1.3 示例:三层网络的方程59 \n
3.1.4 全连接网络中的超参数60 \n
3.2 用于多元分类的softmax函数60 \n
3.3 过拟合简要介绍61 \n
3.3.1 过拟合示例61 \n
3.3.2 基本误差分析66 \n
3.4 Zalando数据集68 \n
3.5 使用TensorFlow构建模型71 \n
3.5.1 网络架构71 \n
3.5.2 softmax函数的标签转换:独热编码73 \n
3.5.3 TensorFlow模型74 \n
3.6 梯度下降变体77 \n
3.6.1 批量梯度下降77 \n
3.6.2 随机梯度下降78 \n
3.6.3 小批量梯度下降79 \n
3.6.4 各种变体比较80 \n
3.7 错误预测示例84 \n
3.8 权重初始化84 \n
3.9 有效添加多个层87 \n
3.10 增加隐藏层的优点89 \n
3.11 比较不同网络89 \n
3.12 选择正确网络的技巧92 \n
第4章 训练神经网络93 \n
4.1 动态学习率衰减93 \n
4.1.1 迭代还是周期94 \n
4.1.2 阶梯式衰减95 \n
4.1.3 步长衰减96 \n
4.1.4 逆时衰减98 \n
4.1.5 指数衰减100 \n
4.1.6 自然指数衰减101 \n
4.1.7 TensorFlow实现105 \n
4.1.8 将方法应用于Zalando数据集108 \n
4.2 常用优化器109 \n
4.2.1 指数加权平均109 \n
4.2.2 Momentum112 \n
4.2.3 RMSProp115 \n
4.2.4 Adam117 \n
4.2.5 应该使用哪种优化器117 \n
4.3 自己开发的优化器示例118 \n
第5章 正则化123 \n
5.1 复杂网络和过拟合123 \n
5.2 什么是正则化127 \n
5.3 ?p范数128 \n
5.4 ?2正则化128 \n
5.4.1 ?2正则化原理128 \n
5.4.2 TensorFlow实现129 \n
5.5 ?1正则化136 \n
5.5.1 ?1正则化原理与TensorFlow实现137 \n
5.5.2 权重真的趋于零吗137 \n
5.6 Dropout140 \n
5.7 Early Stopping143 \n
5.8 其他方法144 \n
第6章 指标分析145 \n
6.1 人工水平表现和贝叶斯误差146 \n
6.2 关于人工水平表现的故事148 \n
6.3 MNIST中的人工水平表现149 \n
6.4 偏差150 \n
6.5 指标分析图151 \n
6.6 训练集过拟合151 \n
6.7 测试集152 \n
6.8 如何拆分数据集153 \n
6.9 不平衡类分布:会发生什么157 \n
6.10 精确率、召回率和F1指标161 \n
6.11 不同分布的数据集164 \n
6.12 k折交叉验证170 \n
6.13 手动指标分析示例177 \n
第7章 超参数调优183 \n
7.1 黑盒优化183 \n
7.2 黑盒函数注意事项184 \n
7.3 超参数调优问题185 \n
7.4 黑盒问题示例186 \n
7.5 网格搜索186 \n
7.6 随机搜索190 \n
7.7 粗到细优化192 \n
7.8 贝叶斯优化195 \n
7.8.1 Nadaraya-Watson回归195 \n
7.8.2 高斯过程195 \n
7.8.3 平稳过程196 \n
7.8.4 用高斯过程预测196 \n
7.8.5 采集函数200 \n
7.8.6 上置信界(UCB)201 \n
7.8.7 示例201 \n
7.9 对数尺度采样207 \n
7.10 使用Zalando数据集的超参数调优208 \n
7.11 径向基函数注意事项214 \n
第8章 卷积神经网络和循环神经网络216 \n
8.1 卷积核和过滤器216 \n
8.2 卷积217 \n
8.3 卷积运算示例223 \n
8.4 池化227 \n
8.5 构建CNN块230 \n
8.5.1 卷积层230 \n
8.5.2 池化层231 \n
8.5.3 各层的叠加231 \n
8.5.4 CNN示例232 \n
8.6 RNN介绍237 \n
8.6.1 符号237 \n
8.6.2 RNN的基本原理238 \n
8.6.3 循环神经网络名称的由来239 \n
8.6.4 学会统计239 \n
第9章 研究项目244 \n
9.1 问题描述244 \n
9.2 数学模型246 \n
9.3 回归问题246 \n
9.4 数据准备250 \n
9.5 模型训练258 \n
第10章 从零开始进行逻辑回归261 \n
10.1 逻辑回归的数学背景262 \n
10.2 Python实现264 \n
10.3 模型测试266 \n
10.3.1 数据集准备267 \n
10.3.2 运行测试268 \n
10.4 结论268
前言 \n
审校者简介 \n
致谢 \n
第1章 计算图和TensorFlow1 \n
1.1 如何构建Python环境1 \n
1.1.1 创建环境3 \n
1.1.2 安装TensorFlow7 \n
1.1.3 Jupyter记事本8 \n
1.2 TensorFlow基本介绍10 \n
1.2.1 计算图10 \n
1.2.2 张量12 \n
1.2.3 创建和运行计算图13 \n
1.2.4 包含tf.constant的计算图13 \n
1.2.5 包含tf.Variable的计算图14 \n
1.2.6 包含tf. placeholder的计算图15 \n
1.2.7 运行和计算的区别18 \n
1.2.8 节点之间的依赖关系18 \n
1.2.9 创建和关闭会话的技巧19 \n
第2章 单一神经元21 \n
2.1 神经元结构21 \n
2.1.1 矩阵表示法23 \n
2.1.2 Python实现技巧:循环和NumPy24 \n
2.1.3 激活函数25 \n
2.1.4 代价函数和梯度下降:学习率的特点32 \n
2.1.5 学习率的应用示例34 \n
2.1.6 TensorFlow中的线性回归示例38 \n
2.2 逻辑回归示例47 \n
2.2.1 代价函数47 \n
2.2.2 激活函数48 \n
2.2.3 数据集48 \n
2.2.4 TensorFlow实现51 \n
2.3 参考文献54 \n
第3章 前馈神经网络56 \n
3.1 网络架构57 \n
3.1.1 神经元的输出59 \n
3.1.2 矩阵维度小结59 \n
3.1.3 示例:三层网络的方程59 \n
3.1.4 全连接网络中的超参数60 \n
3.2 用于多元分类的softmax函数60 \n
3.3 过拟合简要介绍61 \n
3.3.1 过拟合示例61 \n
3.3.2 基本误差分析66 \n
3.4 Zalando数据集68 \n
3.5 使用TensorFlow构建模型71 \n
3.5.1 网络架构71 \n
3.5.2 softmax函数的标签转换:独热编码73 \n
3.5.3 TensorFlow模型74 \n
3.6 梯度下降变体77 \n
3.6.1 批量梯度下降77 \n
3.6.2 随机梯度下降78 \n
3.6.3 小批量梯度下降79 \n
3.6.4 各种变体比较80 \n
3.7 错误预测示例84 \n
3.8 权重初始化84 \n
3.9 有效添加多个层87 \n
3.10 增加隐藏层的优点89 \n
3.11 比较不同网络89 \n
3.12 选择正确网络的技巧92 \n
第4章 训练神经网络93 \n
4.1 动态学习率衰减93 \n
4.1.1 迭代还是周期94 \n
4.1.2 阶梯式衰减95 \n
4.1.3 步长衰减96 \n
4.1.4 逆时衰减98 \n
4.1.5 指数衰减100 \n
4.1.6 自然指数衰减101 \n
4.1.7 TensorFlow实现105 \n
4.1.8 将方法应用于Zalando数据集108 \n
4.2 常用优化器109 \n
4.2.1 指数加权平均109 \n
4.2.2 Momentum112 \n
4.2.3 RMSProp115 \n
4.2.4 Adam117 \n
4.2.5 应该使用哪种优化器117 \n
4.3 自己开发的优化器示例118 \n
第5章 正则化123 \n
5.1 复杂网络和过拟合123 \n
5.2 什么是正则化127 \n
5.3 ?p范数128 \n
5.4 ?2正则化128 \n
5.4.1 ?2正则化原理128 \n
5.4.2 TensorFlow实现129 \n
5.5 ?1正则化136 \n
5.5.1 ?1正则化原理与TensorFlow实现137 \n
5.5.2 权重真的趋于零吗137 \n
5.6 Dropout140 \n
5.7 Early Stopping143 \n
5.8 其他方法144 \n
第6章 指标分析145 \n
6.1 人工水平表现和贝叶斯误差146 \n
6.2 关于人工水平表现的故事148 \n
6.3 MNIST中的人工水平表现149 \n
6.4 偏差150 \n
6.5 指标分析图151 \n
6.6 训练集过拟合151 \n
6.7 测试集152 \n
6.8 如何拆分数据集153 \n
6.9 不平衡类分布:会发生什么157 \n
6.10 精确率、召回率和F1指标161 \n
6.11 不同分布的数据集164 \n
6.12 k折交叉验证170 \n
6.13 手动指标分析示例177 \n
第7章 超参数调优183 \n
7.1 黑盒优化183 \n
7.2 黑盒函数注意事项184 \n
7.3 超参数调优问题185 \n
7.4 黑盒问题示例186 \n
7.5 网格搜索186 \n
7.6 随机搜索190 \n
7.7 粗到细优化192 \n
7.8 贝叶斯优化195 \n
7.8.1 Nadaraya-Watson回归195 \n
7.8.2 高斯过程195 \n
7.8.3 平稳过程196 \n
7.8.4 用高斯过程预测196 \n
7.8.5 采集函数200 \n
7.8.6 上置信界(UCB)201 \n
7.8.7 示例201 \n
7.9 对数尺度采样207 \n
7.10 使用Zalando数据集的超参数调优208 \n
7.11 径向基函数注意事项214 \n
第8章 卷积神经网络和循环神经网络216 \n
8.1 卷积核和过滤器216 \n
8.2 卷积217 \n
8.3 卷积运算示例223 \n
8.4 池化227 \n
8.5 构建CNN块230 \n
8.5.1 卷积层230 \n
8.5.2 池化层231 \n
8.5.3 各层的叠加231 \n
8.5.4 CNN示例232 \n
8.6 RNN介绍237 \n
8.6.1 符号237 \n
8.6.2 RNN的基本原理238 \n
8.6.3 循环神经网络名称的由来239 \n
8.6.4 学会统计239 \n
第9章 研究项目244 \n
9.1 问题描述244 \n
9.2 数学模型246 \n
9.3 回归问题246 \n
9.4 数据准备250 \n
9.5 模型训练258 \n
第10章 从零开始进行逻辑回归261 \n
10.1 逻辑回归的数学背景262 \n
10.2 Python实现264 \n
10.3 模型测试266 \n
10.3.1 数据集准备267 \n
10.3.2 运行测试268 \n
10.4 结论268
猜您喜欢