书籍详情

深度学习从入门到进阶:深度学习从基础到实践+图神经网络

深度学习从入门到进阶:深度学习从基础到实践+图神经网络

作者:安德鲁·格拉斯纳(Andrew Glassner),吴凌飞,崔鹏,裴健,赵亮

出版社:人民邮电出版社

出版时间:2023-01-01

ISBN:9787115007728

定价:¥378.60

购买这本书可以去
内容简介
  9787115554512 深度学习:从基础到实践(上、下册) 199.80 9787115598721 图神经网络:基础、前沿与应用 178.80《深度学习:从基础到实践(上、下册)》 本书从基本概念和理论入手,通过近千张图和简单的例子由浅入深地讲解深度学习的相关知识,且不涉及复杂的数学内容。本书分为上下两册。上册着重介绍深度学习的基础知识,旨在帮助读者建立扎实的知识储备,主要介绍随机性与基础统计学、训练与测试、过拟合与欠拟合、神经元、学习与推理、数据准备、分类器、集成算法、前馈网络、激活函数、反向传播等内容。下册介绍机器学习的 scikit-learn 库和深度学习的 Keras 库(这两种库均基于 Python 语言),以及卷积神经网络、循环神经网络、自编码器、强化学习、生成对抗网络等内容,还介绍了一些创造性应用,并给出了一些典型的数据集,以帮助读者更好地了解学习。本书适合想要了解和使用深度学习的人阅读,也可作为深度学习教学培训领域的入门级参考用书。 《图神经网络:基础、前沿与应用》 本书致力于介绍图神经网络的基本概念和算法、研究前沿以及广泛和新兴的应用,涵盖图神经网络的广泛主题,从基础到前沿,从方法到应用,涉及从方法论到应用场景方方面面的内容。全书分为四部分:第一部分介绍图神经网络的基本概念;第二部分讨论图神经网络成熟的方法;第三部分介绍图神经网络典型的前沿领域;第四部分描述可能对图神经网络未来研究比较重要和有前途的方法与应用的进展情况。本书适合高年级本科生和研究生、博士后研究人员、讲师以及行业从业者阅读与参考。
作者简介
  《深度学习:从基础到实践(上、下册)》 Andrew Glassner博士是一位作家,同时也是计算机交互、图形学领域的顾问。他于1978年开始从事3D计算机绘图工作,在NYIT计算机图形实验室、凯斯西储大学、IBM TJ Watson研究实验室、代尔夫特理工大学、贝尔通信研究、施乐帕克研究中心和微软研究院等公司进行了相关研究。《纽约时报》曾评价他为“计算机图形研究领域最受尊敬的天才之一。”《图神经网络:基础、前沿与应用》 吴凌飞博士毕业于美国公立常春藤盟校之一的威廉与玛丽学院计算机系。目前他是Pinterest公司主管知识图谱和内容理解的研发工程经理。曾任京东硅谷研究中心的首席科学家和IBM Thomas J. Vatson Research Centerl的高级研究员。主要研究方向是机器学习、表征学习和自然语言处理的有机结合,在图神经网络及其应用方面有深入研究。他在机器学习、深度学习等领域的著名会议或期刊上发表100多篇论文。崔鹏博士清华大学计算机系终身副教授。于2010年在清华大学获得博士学位。研究兴趣包括数据挖掘、机器学习和多媒体分析,擅长网络表示学习、因果推理和稳定学习、社会动力学建模和用户行为建模等。他在机器学习和数据挖掘领域的著名会议或期刊上发表100多篇论文。裴健博士杜克大学电子与计算机工程系教授。他是数据科学、大数据、数据挖掘和数据库系统等领域的研究人员。他擅长为新型数据密集型应用开发有效的数据分析技术,并将其研究成果转化为产品和商业实践。自2000年以来,他已经出版一本教科书、两本专著,并在众多具有影响力的会议或期刊上发表300多篇论文。赵亮博士埃默里大学计算科学系助理教授。曾在乔治梅森大学信息科学与技术系和计算机科学系担任助理教授。于2016年在弗吉尼亚理工大学计算机科学系获得博士学位。研究兴趣包括数据挖掘、人工智能和机器学习,在时空和网络数据挖掘、图深度学习、非凸优化、事件预测和可解释机器学习等方面有深入研究。
目录

《深度学习:从基础到实践(上、下册)》

上册


第 1章 机器学习与深度学习入门 1


1.1 为什么这一章出现在这里 1


1.2 从标记数据中学习 4


1.3 监督学习 10


1.4 无监督学习 12


1.5 生成器 16


1.6 强化学习 18


1.7 深度学习 19


1.8 接下来会讲什么 22


参考资料 22


第 2章 随机性与基础统计学 24


2.1 为什么这一章出现在这里 24


2.2 随机变量 24


2.3 一些常见的分布 29


2.4 独立性 35


2.5 抽样与放回 36


2.6 Bootstrapping算法 38


2.7 高维空间 41


2.8 协方差和相关性 43


2.9 Anscombe四重奏 47


参考资料 48


第3章 概率 50


3.1 为什么这一章出现在这里 50


3.2 飞镖游戏 50


3.3 初级概率学 52


3.4 条件概率 52


3.5 联合概率 55


3.6 边际概率 57


3.7 测量的正确性 58


3.8 混淆矩阵的应用 73


参考资料 77


第4章 贝叶斯定理 78


4.1 为什么这一章出现在这里 78


4.2 频率论者法则以及贝叶斯法则 78


4.3 抛硬币 80


4.4 这枚硬币公平吗 81


4.5 生活中的贝叶斯定理 89


4.6 重复贝叶斯定理 91


4.7 多个假设 97


参考资料 101


第5章 曲线和曲面 102


5.1 为什么这一章出现在这里 102


5.2 引言 102


5.3 导数 103


5.4 梯度 108


参考资料 112


第6章 信息论 113


6.1 为什么这一章出现在这里 113


6.2 意外程度与语境 113


6.3 用比特作为单位 115


6.4 衡量信息 116


6.5 事件的大小 117


6.6 自适应编码 117


6.7 熵 122


6.8 交叉熵 123


6.9 KL散度 127


参考资料 128


第7章 分类 130


7.1 为什么这一章出现在这里 130


7.2 二维分类 130


7.3 二维多分类 134


7.4 多维二元分类 135


7.5 聚类 138


7.6 维度灾难 141


参考资料 149


第8章 训练与测试 150


8.1 为什么这一章出现在这里 150


8.2 训练 150


8.3 测试数据 153


8.4 验证数据 156


8.5 交叉验证 157


8.6 对测试结果的利用 160


参考资料 161


第9章 过拟合与欠拟合 162


9.1 为什么这一章出现在这里 162


9.2 过拟合与欠拟合 162


9.3 过拟合数据 164


9.4 及早停止 167


9.5 正则化 168


9.6 偏差与方差 169


9.7 用贝叶斯法则进行线拟合 175


参考资料 179


第 10章 神经元 181


10.1 为什么这一章出现在这里 181


10.2 真实神经元 181


10.3 人工神经元 182


10.4 小结 188


参考资料 188


第 11章 学习与推理 190


11.1 为什么这一章出现在这里 190


11.2 学习的步骤 190


11.3 演绎和归纳 193


11.4 演绎 194


11.5 归纳 199


11.6 组合推理 203


11.7 操作条件 204


参考资料 206


第 12章 数据准备 208


12.1 为什么这一章出现在这里 208


12.2 数据变换 208


12.3 数据类型 210


12.4 数据清理基础 212


12.5 归一化和标准化 213


12.6 特征选择 217


12.7 降维 217


12.8 转换 226


12.9 切片处理 229


12.10 交叉验证转换 232


参考资料 234


第 13章 分类器 236


13.1 为什么这一章出现在这里 236


13.2 分类器的种类 236


13.3 k近邻法 237


13.4 支持向量机 241


13.5 决策树 247


13.6 朴素贝叶斯 255


13.7 讨论 259


参考资料 260


第 14章 集成算法 261


14.1 为什么这一章出现在这里 261


14.2 集成方法 261


14.3 投票 262


14.4 套袋算法 262


14.5 随机森林 264


14.6 极端随机树 265


14.7 增强算法 265


参考资料 270


第 15章 scikit-learn 272


第 16章 前馈网络 314


第 17章 激活函数 321


第 18章 反向传播 336


第 19章 优化器 383



下册


第 20章 深度学习 417


20.1 为什么这一章出现在这里 417


20.2 深度学习概述 417


20.3 输入层和输出层 419


20.4 深度学习层纵览 420


20.5 层和图形符号总结 428


20.6 一些例子 429


20.7 构建一个深度学习器 434


20.8 解释结果 435


参考资料 440


第 21章 卷积神经网络 441


第 22章 循环神经网络 488


第 23章 Keras第 1部分 520


第 24章 Keras第 2部分 577


第 25章 自编码器 665


第 26章 强化学习 704


第 27章 生成对抗网络 753


第 28章 创造性应用 775


第 29章 数据集 797




《图神经网络:基础、前沿与应用》

第 一部分 引言


第 1章 表征学习 2


1.1 导读 2


1.2 不同领域的表征学习 3


1.3 小结 9


第 2章 图表征学习 11


2.1 导读 11


2.2 传统图嵌入方法 12


2.3 现代图嵌入方法 13


2.4 图神经网络 16


2.5 小结 17


第3章 图神经网络 18


3.1 导读 18


3.2 图神经网络概述 19


3.3 小结 24


第二部分 基础


第4章 用于节点分类的图神经网络 28


4.1 背景和问题定义 28


4.2 有监督的图神经网络 29


4.3 无监督的图神经网络 37


4.4 过平滑问题 41


4.5 小结 42


第5章 图神经网络的表达能力 44


5.1 导读 44


5.2 图表征学习和问题的提出 47


5.3 强大的消息传递图神经网络 49


5.4 比1-WL测试更强大的图神经网络架构 54


5.5 小结 69


第6章 图神经网络的可扩展性 71


6.1 导读 71


6.2 引言 72


6.3 抽样范式 72


6.4 大规模图神经网络在推荐系统中的应用 82


6.5 未来的方向 84


第7章 图神经网络的可解释性 86


7.1 背景:深度模型的可解释性 86


7.2 图神经网络的解释方法 90


7.3 图神经网络的可解释模型 97


7.4 图神经网络解释的评估 101


7.5 未来的方向 103


第8章 图神经网络的对抗鲁棒性 105


8.1 动机 105


8.2 图神经网络的局限性:对抗性样本 107


8.3 可证明的鲁棒性:图神经网络的认证 113


8.4 提高图神经网络的鲁棒性 117


8.5 从鲁棒性的角度进行适当评估 122


8.6 小结 124


第三部分 前沿


第9章 图分类 128


9.1 导读 128


9.2 用于图分类的图神经网络:典型工作和现代架构 129


9.3 池化层:从节点级输出学习图级输出 133


9.4 图神经网络和高阶层在图分类中的局限性 135


9.5 图神经网络在图分类中的应用 137


9.6 基准数据集 137


9.7 小结 138


第 10章 链接预测 139


10.1 导读 139


10.2 传统的链接预测方法 140


10.3 基于GNN的链接预测方法 145


10.4 链接预测的理论 151


10.5 未来的方向 158


第 11章 图生成 160


11.1 导读 160


11.2 经典的图生成模型 160


11.3 深度图生成模型 163


11.4 小结 178


第 12章 图转换 179


12.1 图转换问题的形式化 179


12.2 节点级转换 180


12.3 边级转换 182


12.4 节点-边共转换 186


12.5 其他基于图的转换 193


12.6 小结 196


第 13章 图匹配 197


13.1 导读 197


13.2 图匹配学习 198


13.3 图相似性学习 205


13.4 小结 210


第 14章 图结构学习 211


14.1 导读 211


14.2 传统的图结构学习 212


14.3 图神经网络的图结构学习 215


14.4 未来的方向 226


14.5 小结 227


第 15章 动态图神经网络 228


第 16章 异质图神经网络 248


第 17章 自动机器学习 262


第 18章 自监督学习 275


第四部分 广泛和新兴的应用


第 19章 现代推荐系统中的图神经网络 298


第 20章 计算机视觉中的图神经网络 315


第 21章 自然语言处理中的图神经网络 327


第 22章 程序分析中的图神经网络 341


第 23章 软件挖掘中的图神经网络 352


第 24章 药物开发中基于图神经网络的生物医学知识图谱挖掘 366


第 25章 预测蛋白质功能和相互作用的图神经网络 383


第 26章 异常检测中的图神经网络 395


第 27章 智慧城市中的图神经网络 410

猜您喜欢

读书导航