书籍详情
TensorFlow深度学习从入门到进阶
作者:张德丰
出版社:机械工业出版社
出版时间:2020-05-01
ISBN:9787111652632
定价:¥109.00
购买这本书可以去
内容简介
《TensorFlow深度学习从入门到进阶》以TensorFlow为主线进行讲解,书中每章节都以理论引出,以TensorFlow应用巩固结束,理论与实践相结合,让读者快速掌握TensorFlow机器学习。《TensorFlow深度学习从入门到进阶》共11章,主要包括TensorFlow与深度网络、TensorFlow编程基础、TensorFlow编程进阶、线性回归、逻辑回归、聚类分析、神经网络算法、卷积神经网络、循环神经网络、其他网络、机器学习综合实战等内容。《TensorFlow深度学习从入门到进阶》适合TensorFlow初学者阅读,也适合研究TensorFlow的广大科研人员、学者、工程技术人员学习参考。
作者简介
暂缺《TensorFlow深度学习从入门到进阶》作者简介
目录
前言
第1章 TensorFlow与深度学习
1.1 深度学习的由来
1.2 语言与系统的支持
1.3 TensorFlow的特点
1.4 核心组件
1.5 TensorFlow的主要依赖包
1.5.1 Protocol Buffer包
1.5.2 Bazel包
1.6 搭建环境
1.6.1 安装环境
1.6.2 安装TensorFlow
1.6.3 安装测试
1.7 Geany
1.8 揭开深度学习的面纱
1.8.1 人工智能、机器学习与深度学习
1.8.2 深度学习的核心思想
1.8.3 深度学习的应用
1.9 深度学习的优劣势
第2章 TensorFlow编程基础
2.1 张量
2.1.1 张量的概念
2.1.2 张量的使用
2.1.3 Numpy库
2.1.4 张量的阶
2.1.5 张量的形状
2.1.6 张量应用实例
2.2 图的实现
2.3 会话的实现
2.4 认识变量
2.4.1 变量的创建
2.4.2 变量的初始化
2.4.3 变量的更新
2.4.4 变量的保存
2.4.5 变量的加载
2.4.6 共享变量和变量命名空间
2.5 矩阵的操作
2.5.1 矩阵的生成
2.5.2 矩阵的变换
2.6 TensorFlow数据读取的方式
2.7 从磁盘读取信息
2.7.1 列表格式
2.7.2 读取图像数据
第3章 TensorFlow编程进阶
3.1 队列与线程
3.1.1 队列
3.1.2 队列管理器
3.1.3 线程协调器
3.1.4 组合使用
3.2 TensorFlow嵌入Layer
3.3 生成随机图片数据
3.4 神经网络
3.4.1 神经元
3.4.2 简单神经结构
3.4.3 深度神经网络
3.5 损失函数
3.6 梯度下降
3.6.1 标准梯度法
3.6.2 批量梯度下降法
3.6.3 随机梯度下降法
3.6.4 小批量梯度下降法
3.6.5 线性模型的局限性
3.6.6 直线与曲线的拟合演示
3.7 反向传播
3.7.1 求导链式法则
3.7.2 反向传播算法思路
3.7.3 反向传播算法的计算过程
3.7.4 反向传播演示回归与二分类算法
3.8 随机训练与批量训练
3.9 创建分类器
3.10 模型评估
3.11 优化函数
3.11.1 随机梯度下降优化算法
3.11.2 基于动量的优化算法
3.11.3 Adagrad优化算法
3.11.4 Adadelta优化算法
3.11.5 Adam优化算法
3.11.6 实例演示几种优化算法
第4章 TensorFlow实现线性回归
4.1 矩阵操作实现线性回归问题
4.1.1 逆矩阵解决线性回归问题
4.1.2 矩阵分解法实现线性回归
4.1.3 正则法对iris数据实现回归分析
4.2 损失函数对iris数据实现回归分析
4.3 戴明算法对iris数据实现回归分析
4.4 岭回归与Lasso回归对iris数据实现回归分析
4.5 弹性网络算法对iris数据实现回归分析
第5章 TensorFlow实现逻辑回归
5.1 什么是逻辑回归
5.1.1 逻辑回归与线性回归的关系
5.1.2 逻辑回归模型的代价函数
5.1.3 逻辑回归的预测函数
5.1.4 判定边界
5.1.5 随机梯度下降算法实现逻辑回归
5.2 逆函数及其实现
5.2.1 逆函数的相关函数
5.2.2 逆函数的实现
5.3 Softmax回归
5.3.1 Softmax回归简介
5.3.2 Softmax的代价函数
5.3.3 Softmax回归的求解
5.3.4 Softmax回归的参数特点
5.3.5 Softmax与逻辑回归的关系
5.3.6 多分类算法和二分类算法的选择
5.3.7 计算机视觉领域实例
第6章 TensorFlow实现聚类分析
6.1 支持向量机及实现
6.1.1 重新审视逻辑回归
6.1.2 形式化表示
6.1.3 函数间隔和几何间隔
6.1.4 最优间隔分类器
6.1.5 支持向量机对iris数据进行分类
6.1.6 核函数对数据点进行预测
6.1.7 非线性支持向量机创建山鸢尾花分类器
6.1.8 多类支持向量机对iris数据进行预测
6.2 K-均值聚类法及实现
6.2.1 K-均值聚类相关概念
6.2.2 K-均值聚类法对iris数据进行聚类
6.3 最近邻算法及实现
6.3.1 最近邻算法概述
6.3.2 最近邻算法求解文本距离
6.3.3 最近邻算法实现地址匹配
第7章 神经网络算法
7.1 反向网络
7.1.1 问题设置
7.1.2 反向网络算法
7.1.3 自动微分
7.1.4 对随机数进行反向网络演示
7.2 激励函数及实现
7.2.1 激励函数的用途
7.2.2 几种激励函数
7.2.3 几种激励函数的绘图
7.3 门函数及其实现
7.4 单层神经网络对iris数据进行训练
7.5 单个神经元的扩展及实现
7.6 构建多层神经网络
7.7 实现井字棋
第8章 TensorFlow实现卷积神经网络
8.1 全连接网络的局限性
8.2 卷积神经网络的结构
8.2.1 卷积层
8.2.2 池化层
8.2.3 全连接层
8.3 卷积神经网络的训练
8.3.1 求导的链式法则
8.3.2 卷积层反向传播
8.4 卷积神经网络的实现
8.4.1 识别0和1数字
8.4.2 预测MNIST数字
8.5 几种经典的卷积神经网络及实现
8.5.1 AlexNet网络及实现
8.5.2 VGGNet网络及实现
8.5.3 Inception Net网络及实现
8.5.4 RestNet
第1章 TensorFlow与深度学习
1.1 深度学习的由来
1.2 语言与系统的支持
1.3 TensorFlow的特点
1.4 核心组件
1.5 TensorFlow的主要依赖包
1.5.1 Protocol Buffer包
1.5.2 Bazel包
1.6 搭建环境
1.6.1 安装环境
1.6.2 安装TensorFlow
1.6.3 安装测试
1.7 Geany
1.8 揭开深度学习的面纱
1.8.1 人工智能、机器学习与深度学习
1.8.2 深度学习的核心思想
1.8.3 深度学习的应用
1.9 深度学习的优劣势
第2章 TensorFlow编程基础
2.1 张量
2.1.1 张量的概念
2.1.2 张量的使用
2.1.3 Numpy库
2.1.4 张量的阶
2.1.5 张量的形状
2.1.6 张量应用实例
2.2 图的实现
2.3 会话的实现
2.4 认识变量
2.4.1 变量的创建
2.4.2 变量的初始化
2.4.3 变量的更新
2.4.4 变量的保存
2.4.5 变量的加载
2.4.6 共享变量和变量命名空间
2.5 矩阵的操作
2.5.1 矩阵的生成
2.5.2 矩阵的变换
2.6 TensorFlow数据读取的方式
2.7 从磁盘读取信息
2.7.1 列表格式
2.7.2 读取图像数据
第3章 TensorFlow编程进阶
3.1 队列与线程
3.1.1 队列
3.1.2 队列管理器
3.1.3 线程协调器
3.1.4 组合使用
3.2 TensorFlow嵌入Layer
3.3 生成随机图片数据
3.4 神经网络
3.4.1 神经元
3.4.2 简单神经结构
3.4.3 深度神经网络
3.5 损失函数
3.6 梯度下降
3.6.1 标准梯度法
3.6.2 批量梯度下降法
3.6.3 随机梯度下降法
3.6.4 小批量梯度下降法
3.6.5 线性模型的局限性
3.6.6 直线与曲线的拟合演示
3.7 反向传播
3.7.1 求导链式法则
3.7.2 反向传播算法思路
3.7.3 反向传播算法的计算过程
3.7.4 反向传播演示回归与二分类算法
3.8 随机训练与批量训练
3.9 创建分类器
3.10 模型评估
3.11 优化函数
3.11.1 随机梯度下降优化算法
3.11.2 基于动量的优化算法
3.11.3 Adagrad优化算法
3.11.4 Adadelta优化算法
3.11.5 Adam优化算法
3.11.6 实例演示几种优化算法
第4章 TensorFlow实现线性回归
4.1 矩阵操作实现线性回归问题
4.1.1 逆矩阵解决线性回归问题
4.1.2 矩阵分解法实现线性回归
4.1.3 正则法对iris数据实现回归分析
4.2 损失函数对iris数据实现回归分析
4.3 戴明算法对iris数据实现回归分析
4.4 岭回归与Lasso回归对iris数据实现回归分析
4.5 弹性网络算法对iris数据实现回归分析
第5章 TensorFlow实现逻辑回归
5.1 什么是逻辑回归
5.1.1 逻辑回归与线性回归的关系
5.1.2 逻辑回归模型的代价函数
5.1.3 逻辑回归的预测函数
5.1.4 判定边界
5.1.5 随机梯度下降算法实现逻辑回归
5.2 逆函数及其实现
5.2.1 逆函数的相关函数
5.2.2 逆函数的实现
5.3 Softmax回归
5.3.1 Softmax回归简介
5.3.2 Softmax的代价函数
5.3.3 Softmax回归的求解
5.3.4 Softmax回归的参数特点
5.3.5 Softmax与逻辑回归的关系
5.3.6 多分类算法和二分类算法的选择
5.3.7 计算机视觉领域实例
第6章 TensorFlow实现聚类分析
6.1 支持向量机及实现
6.1.1 重新审视逻辑回归
6.1.2 形式化表示
6.1.3 函数间隔和几何间隔
6.1.4 最优间隔分类器
6.1.5 支持向量机对iris数据进行分类
6.1.6 核函数对数据点进行预测
6.1.7 非线性支持向量机创建山鸢尾花分类器
6.1.8 多类支持向量机对iris数据进行预测
6.2 K-均值聚类法及实现
6.2.1 K-均值聚类相关概念
6.2.2 K-均值聚类法对iris数据进行聚类
6.3 最近邻算法及实现
6.3.1 最近邻算法概述
6.3.2 最近邻算法求解文本距离
6.3.3 最近邻算法实现地址匹配
第7章 神经网络算法
7.1 反向网络
7.1.1 问题设置
7.1.2 反向网络算法
7.1.3 自动微分
7.1.4 对随机数进行反向网络演示
7.2 激励函数及实现
7.2.1 激励函数的用途
7.2.2 几种激励函数
7.2.3 几种激励函数的绘图
7.3 门函数及其实现
7.4 单层神经网络对iris数据进行训练
7.5 单个神经元的扩展及实现
7.6 构建多层神经网络
7.7 实现井字棋
第8章 TensorFlow实现卷积神经网络
8.1 全连接网络的局限性
8.2 卷积神经网络的结构
8.2.1 卷积层
8.2.2 池化层
8.2.3 全连接层
8.3 卷积神经网络的训练
8.3.1 求导的链式法则
8.3.2 卷积层反向传播
8.4 卷积神经网络的实现
8.4.1 识别0和1数字
8.4.2 预测MNIST数字
8.5 几种经典的卷积神经网络及实现
8.5.1 AlexNet网络及实现
8.5.2 VGGNet网络及实现
8.5.3 Inception Net网络及实现
8.5.4 RestNet
猜您喜欢