书籍详情
机器学习(Python版)
作者:[美] 马克·E.芬纳 著,江红,余青松,余靖 译
出版社:机械工业出版社
出版时间:2022-07-01
ISBN:9787111706007
定价:¥149.00
购买这本书可以去
内容简介
本书将帮助读者掌握开发有效学习系统所需的流程、模式和策略,通过简单的故事、图片和Python示例来向读者传达机器学习的基本思想。即使读者是一名初学者,只要具备一些Python编程基础,不管大学数学水平如何,都能轻松阅读本书并有所收获。
作者简介
暂缺《机器学习(Python版)》作者简介
目录
译者序
推荐序
前言
作者简介
第一部分 机器学习入门
第1章 机器学习概论 2
1.1 欢迎来到机器学习的世界 2
1.2 范围、术语、预测和数据 3
1.2.1 特征 4
1.2.2 目标值和预测值 5
1.3 让机器开始机器学习 6
1.4 学习系统举例 8
1.4.1 预测类别:分类器举例 8
1.4.2 预测值:回归器举例 9
1.5 评估机器学习系统 10
1.5.1 准确率 10
1.5.2 资源消耗 11
1.6 创建机器学习系统的过程 12
1.7 机器学习的假设和现实 13
1.8 本章参考阅读资料 15
1.8.1 本书内容 15
1.8.2 章节注释 16
第2章 相关技术背景 18
2.1 编程环境配置 18
2.2 数学语言的必要性 18
2.3 用于解决机器学习问题的软件 19
2.4 概率 20
2.4.1 基本事件 21
2.4.2 独立性 22
2.4.3 条件概率 23
2.4.4 概率分布 24
2.5 线性组合、加权和以及点积 27
2.5.1 加权平均 29
2.5.2 平方和 31
2.5.3 误差平方和 32
2.6 几何视图:空间中的点 33
2.6.1 直线 33
2.6.2 直线拓展 37
2.7 表示法和加1技巧 41
2.8 渐入佳境:突破线性和非线性 42
2.9 NumPy与“数学无所不在” 45
2.10 浮点数问题 49
2.11 本章参考阅读资料 50
2.11.1 本章小结 50
2.11.2 章节注释 51
第3章 预测类别:分类入门 52
3.1 分类任务 52
3.2 一个简单的分类数据集 53
3.3 训练和测试:请勿应试教育 55
3.4 评估:考试评分 58
3.5 简单分类器#1:最近邻分类器、远距离关系和假设 59
3.5.1 定义相似性 60
3.5.2 k?-最近邻中的k 61
3.5.3 答案组合 61
3.5.4 k?-最近邻、参数和非参数方法 61
3.5.5 建立一个k?-最近邻分类模型 62
3.6 简单分类器#2:朴素贝叶斯分类器、
概率和违背承诺 64
3.7 分类器的简单评估 66
3.7.1 机器学习的性能 66
3.7.2 分类器的资源消耗 67
3.7.3 独立资源评估 73
3.8 本章参考阅读资料 77
3.8.1 局限性和尚未解决的问题 77
3.8.2 本章小结 77
3.8.3 章节注释 77
3.8.4 练习题 79
第4章 预测数值:回归入门 80
4.1 一个简单的回归数据集 80
4.2 最近邻回归和汇总统计 82
4.2.1 中心度量方法:中位数和均值 83
4.2.2 构建一个k?-最近邻回归模型 85
4.3 线性回归和误差 86
4.3.1 地面总是不平坦的:为什么需要斜坡 86
4.3.2 倾斜直线 89
4.3.3 执行线性回归 91
4.4 优化:选择最佳答案 92
4.4.1 随机猜测 92
4.4.2 随机调整 93
4.4.3 智能调整 94
4.4.4 计算的捷径 94
4.4.5 线性回归的应用 95
4.5 回归器的简单评估和比较 95
4.5.1 均方根误差 95
4.5.2 机器学习的性能 96
4.5.3 回归过程中的资源消耗 96
4.6 本章参考阅读资料 98
4.6.1 局限性和尚未解决的问题 98
4.6.2 本章小结 99
4.6.3 章节注释 99
4.6.4 练习题 99
第二部分 通用评估技术
第5章 机器学习算法的评估和比较分析 102
5.1 评估和大道至简的原则 102
5.2 机器学习阶段的术语 103
5.2.1 有关机器的重新讨论 104
5.2.2 更规范的阐述 106
5.3 过拟合和欠拟合 109
5.3.1 合成数据和线性回归 109
5.3.2 手动操控模型的复杂度 111
5.3.3 金凤花姑娘(“恰到好处”原则):可视化过拟合、欠拟合和“最佳拟合” 112
5.3.4 简单性 115
5.3.5 关于过拟合必须牢记的注意事项 116
5.4 从误差到成本 116
5.4.1 损失 116
5.4.2 成本 117
5.4.3 评分 118
5.5 (重新)抽样:以少胜多 119
5.5.1 交叉验证 119
5.5.2 分层抽样 122
5.5.3 重复的训练-测试集拆分 124
5.5.4 一种更好的方法和混排 127
5.5.5 留一交叉验证 131
5.6 分解:将误差分解为偏差和方差 132
5.6.1 数据的方差 133
5.6.2 模型的方差 133
5.6.3 模型的偏差 134
5.6.4 结合所有的因素 134
5.6.5 偏差-方差权衡示例 135
5.7 图形可视化评估和比较 139
5.7.1 学习曲线:到底需要多少数据 139
5.7.2 复杂度曲线 141
5.8 使用交叉验证比较机器学习模型 143
5.9 本章参考阅读资料 144
5.9.1 本章小结 144
5.9.2 章节注释 144
5.9.3 练习题 146
第6章 评估分类器 147
6.1 基线分类器 147
6.2 准确率以外:分类器的其他度量指标 149
6.2.1 从混淆矩阵中消除混淆 151
6.2.2 错误的方式 151
6.2.3 基于混淆矩阵的度量指标 152
6.2.4 混淆矩阵编码 154
6.2.5 处理多元类别:多元类别平均 156
6
推荐序
前言
作者简介
第一部分 机器学习入门
第1章 机器学习概论 2
1.1 欢迎来到机器学习的世界 2
1.2 范围、术语、预测和数据 3
1.2.1 特征 4
1.2.2 目标值和预测值 5
1.3 让机器开始机器学习 6
1.4 学习系统举例 8
1.4.1 预测类别:分类器举例 8
1.4.2 预测值:回归器举例 9
1.5 评估机器学习系统 10
1.5.1 准确率 10
1.5.2 资源消耗 11
1.6 创建机器学习系统的过程 12
1.7 机器学习的假设和现实 13
1.8 本章参考阅读资料 15
1.8.1 本书内容 15
1.8.2 章节注释 16
第2章 相关技术背景 18
2.1 编程环境配置 18
2.2 数学语言的必要性 18
2.3 用于解决机器学习问题的软件 19
2.4 概率 20
2.4.1 基本事件 21
2.4.2 独立性 22
2.4.3 条件概率 23
2.4.4 概率分布 24
2.5 线性组合、加权和以及点积 27
2.5.1 加权平均 29
2.5.2 平方和 31
2.5.3 误差平方和 32
2.6 几何视图:空间中的点 33
2.6.1 直线 33
2.6.2 直线拓展 37
2.7 表示法和加1技巧 41
2.8 渐入佳境:突破线性和非线性 42
2.9 NumPy与“数学无所不在” 45
2.10 浮点数问题 49
2.11 本章参考阅读资料 50
2.11.1 本章小结 50
2.11.2 章节注释 51
第3章 预测类别:分类入门 52
3.1 分类任务 52
3.2 一个简单的分类数据集 53
3.3 训练和测试:请勿应试教育 55
3.4 评估:考试评分 58
3.5 简单分类器#1:最近邻分类器、远距离关系和假设 59
3.5.1 定义相似性 60
3.5.2 k?-最近邻中的k 61
3.5.3 答案组合 61
3.5.4 k?-最近邻、参数和非参数方法 61
3.5.5 建立一个k?-最近邻分类模型 62
3.6 简单分类器#2:朴素贝叶斯分类器、
概率和违背承诺 64
3.7 分类器的简单评估 66
3.7.1 机器学习的性能 66
3.7.2 分类器的资源消耗 67
3.7.3 独立资源评估 73
3.8 本章参考阅读资料 77
3.8.1 局限性和尚未解决的问题 77
3.8.2 本章小结 77
3.8.3 章节注释 77
3.8.4 练习题 79
第4章 预测数值:回归入门 80
4.1 一个简单的回归数据集 80
4.2 最近邻回归和汇总统计 82
4.2.1 中心度量方法:中位数和均值 83
4.2.2 构建一个k?-最近邻回归模型 85
4.3 线性回归和误差 86
4.3.1 地面总是不平坦的:为什么需要斜坡 86
4.3.2 倾斜直线 89
4.3.3 执行线性回归 91
4.4 优化:选择最佳答案 92
4.4.1 随机猜测 92
4.4.2 随机调整 93
4.4.3 智能调整 94
4.4.4 计算的捷径 94
4.4.5 线性回归的应用 95
4.5 回归器的简单评估和比较 95
4.5.1 均方根误差 95
4.5.2 机器学习的性能 96
4.5.3 回归过程中的资源消耗 96
4.6 本章参考阅读资料 98
4.6.1 局限性和尚未解决的问题 98
4.6.2 本章小结 99
4.6.3 章节注释 99
4.6.4 练习题 99
第二部分 通用评估技术
第5章 机器学习算法的评估和比较分析 102
5.1 评估和大道至简的原则 102
5.2 机器学习阶段的术语 103
5.2.1 有关机器的重新讨论 104
5.2.2 更规范的阐述 106
5.3 过拟合和欠拟合 109
5.3.1 合成数据和线性回归 109
5.3.2 手动操控模型的复杂度 111
5.3.3 金凤花姑娘(“恰到好处”原则):可视化过拟合、欠拟合和“最佳拟合” 112
5.3.4 简单性 115
5.3.5 关于过拟合必须牢记的注意事项 116
5.4 从误差到成本 116
5.4.1 损失 116
5.4.2 成本 117
5.4.3 评分 118
5.5 (重新)抽样:以少胜多 119
5.5.1 交叉验证 119
5.5.2 分层抽样 122
5.5.3 重复的训练-测试集拆分 124
5.5.4 一种更好的方法和混排 127
5.5.5 留一交叉验证 131
5.6 分解:将误差分解为偏差和方差 132
5.6.1 数据的方差 133
5.6.2 模型的方差 133
5.6.3 模型的偏差 134
5.6.4 结合所有的因素 134
5.6.5 偏差-方差权衡示例 135
5.7 图形可视化评估和比较 139
5.7.1 学习曲线:到底需要多少数据 139
5.7.2 复杂度曲线 141
5.8 使用交叉验证比较机器学习模型 143
5.9 本章参考阅读资料 144
5.9.1 本章小结 144
5.9.2 章节注释 144
5.9.3 练习题 146
第6章 评估分类器 147
6.1 基线分类器 147
6.2 准确率以外:分类器的其他度量指标 149
6.2.1 从混淆矩阵中消除混淆 151
6.2.2 错误的方式 151
6.2.3 基于混淆矩阵的度量指标 152
6.2.4 混淆矩阵编码 154
6.2.5 处理多元类别:多元类别平均 156
6
猜您喜欢