书籍详情

TensorFlow 2.0卷积神经网络实战

TensorFlow 2.0卷积神经网络实战

作者:王晓华

出版社:清华大学出版社

出版时间:2019-12-01

ISBN:9787302540656

定价:¥69.00

购买这本书可以去
内容简介
  卷积神经网络是现代神经网络的核心内容,TensorFlow又是现在*为流行的深度学习框架。本书使用TensorFlow 2.0作为卷积神经网络实现的基本工具,引导深度学习初学者,从搭建环境开始,逐步深入到理论、代码和应用实践中去。 本书分为8章,第1章从搭建环境开始,包含Anaconda、Python、PyCharm、TensorFlow CPU 版本和GPU版本的安装;第2章是KerasTensorFlow 2.0的使用基础;第3章是TensorFlow 2.0语法;第4章是MNIST实战;第5章是Dataset API;第6章是ResNet理论和实践;第7章是注意力模型;第8章是通过卷积实现的一个项目案例:识文断字。 本书内容详尽、示例丰富,是机器学习和深度学习初学者的参考书,同时非常适合高等院校人工智能相关专业的师生阅读,也可作为培训学校相关专业的教材使用。
作者简介
  王晓华,计算机专业讲师,长期讲授面向对象程序设计、数据结构、Hadoop程序设计等研究生和本科生相关课程;主要研究方向为云计算、数据挖掘。曾主持和参与多项国家和省级科研课题,独立科研项目获省级成果认定,发表过多篇论文,拥有一项专利。著有《Spark MLlib机器学习实践》《TensorFlow深度学习应用实践》《OpenCV TensorFlow深度学习与计算机视觉实战》等图书。
目录
目  录   第1章  Python和TensorFlow 2.0的安装 1 1.1  Python基本安装和用法 1 1.1.1  Anaconda的下载与安装 2 1.1.2  Python编译器PyCharm 的安装 5 1.1.3  使用Python计算softmax函数 8 1.2  TensorFlow 2.0 GPU版本的安装 9 1.2.1  检测Anaconda中的TensorFlow版本 9 1.2.2  TensorFlow 2.0 GPU版本基础显卡推荐和前置软件安装 10 1.3  Hello TensorFlow 13 1.4  本章小结 14 第2章  简化代码的复杂性:TensorFlow 2.0基础与进阶 15 2.1  配角转成主角——从TensorFlow Eager Execution转正谈起 16 2.1.1  Eager简介与调用 16 2.1.2  读取数据 18 2.1.3  使用TensorFlow 2.0模式进行线性回归的一个简单的例子 20 2.2  Hello TensorFlow & Keras 22 2.2.1  MODEL!MODEL!MODEL!还是MODEL 23 2.2.2  使用Keras API实现鸢尾花分类的例子(顺序模式) 24 2.2.3  使用Keras 函数式编程实现鸢尾花分类的例子(重点) 27 2.2.4  使用保存的Keras模式对模型进行复用 30 2.2.5  使用TensorFlow 2.0标准化编译对Iris模型进行拟合 31 2.2.6  多输入单一输出TensorFlow 2.0编译方法(选学) 35 2.2.7  多输入多输出TensorFlow 2.0编译方法(选学) 39 2.3  全连接层详解 41 2.3.1  全连接层的定义与实现 41 2.3.2  使用TensorFlow 2.0自带的API实现全连接层 43 2.3.3  打印显示TensorFlow 2.0设计的Model结构和参数 46 2.4  本章小结 48 第3章  TensorFlow 2.0语法基础 49 3.1  BP神经网络简介 49 3.2  BP神经网络两个基础算法详解 53 3.2.1  小二乘法(LS算法)详解 53 3.2.2  道士下山的故事——梯度下降算法 56 3.3  反馈神经网络反向传播算法介绍 59 3.3.1  深度学习基础 59 3.3.2  链式求导法则 61 3.3.3  反馈神经网络原理与公式推导 62 3.3.4  反馈神经网络原理的激活函数 68 3.3.5  反馈神经网络原理的Python实现 70 3.4  本章小结 74 第4章  卷积层详解与MNIST实战 75 4.1  卷积运算基本概念 75 4.1.1  卷积运算 76 4.1.2  TensorFlow 2.0中卷积函数实现详解 78 4.1.3  池化运算 80 4.1.4  softmax激活函数 81 4.1.5  卷积神经网络原理 83 4.2  TensorFlow 2.0编程实战—MNIST手写体识别 86 4.2.1  MNIST数据集 86 4.2.2  MNIST数据集特征和标签介绍 88 4.2.3  TensorFlow 2.0编程实战MNIST数据集 90 4.2.4  使用自定义的卷积层实现MNIST识别 95 4.3  本章小结 98 第5章  TensorFlow 2.0 Dataset使用详解 99 5.1  Dataset API基本结构和内容 99 5.1.1  Dataset API数据种类 100 5.1.2  Dataset API基础使用 101 5.2  Dataset API高级用法 102 5.2.1  Dataset API数据转换方法 104 5.2.2  一个读取图片数据集的例子 108 5.3  使用TFRecord API创建和使用数据集 108 5.3.1  TFRecord详解 109 5.3.2  TFRecord的创建 111 5.3.3  TFRecord的读取 115 5.4  TFRecord实战——带有处理模型的完整例子 121 5.4.1  创建数据集 121 5.4.2  创建解析函数 122 5.4.3  创建数据模型 123 5.4  本章小结 124 第6章  从冠军开始:ResNet 125 6.1  ResNet基础原理与程序设计基础 125 6.1.1  ResNet诞生的背景 126 6.1.2  模块工具的TensorFlow实现——不要重复造轮子 129 6.1.3  TensorFlow高级模块layers用法简介 129 6.2  ResNet实战CIFAR-100数据集分类 137 6.2.1  CIFAR-100数据集简介 137 6.2.2  ResNet残差模块的实现 140 6.2.3  ResNet网络的实现 142 6.2.4  使用ResNet对CIFAR-100进行分类 145 6.3  ResNet的兄弟——ResNeXt 147 6.3.1  ResNeXt诞生的背景 147 6.3.2  ResNeXt残差模块的实现 149 6.3.3  ResNeXt网络的实现 150 6.3.4  ResNeXt和ResNet的比较 151 6.4  其他的卷积神经模型简介 152 6.4.1  SqueezeNet模型简介 153 6.4.2  Xception模型简介 155 6.5  本章小结 156 第7章  Attention is all we need! 157 7.1  简单的理解注意力机制 158 7.1.1  何为“注意力” 158 7.1.2  “hard or soft?”—注意力机制的两种常见形式 159 7.1.3  “Spatial and Channel!”—注意力机制的两种实现形式 160 7.2  SENet 和CBAM注意力机制的经典模型 163 7.2.1  后的冠军—SENet 163 7.2.2  结合了Spatial和Channel的CBAM模型 166 7.2.3  注意力的前沿研究—基于细粒度的图像注意力机制 171 7.3  本章小结 173 第8章  卷积神经网络实战:识文断字我也可以 174 8.1  文本数据处理 175 8.1.1  数据集介绍和数据清洗 175 8.1.2  停用词的使用 177 8.1.3  词向量训练模型word2vec使用介绍 180 8.1.4  文本主题的提取—基于TF-IDF(选学) 183 8.1.5  文本主题的提取—基于TextRank(选学) 187 8.2  针对文本的卷积神经网络模型简介—字符卷积 190 8.2.1  字符(非单词)文本的处理 191 8.2.2  卷积神经网络文本分类模型的实现—Conv1D(一维卷积) 199 8.3  针对文本的卷积神经网络模型简介—词卷积 201 8.3.1  单词的文本处理 201 8.3.2  卷积神经网络文本分类模型的实现—Conv2D(二维卷积) 203 8.4  使用卷积对文本分类的补充内容 207 8.4.1  汉字的文本处理 207 8.4.2  其他的一些细节 210 8.5  本章小结 211  
猜您喜欢

读书导航