书籍详情

Python可解释AI实战(XAI)

Python可解释AI实战(XAI)

作者:[法]丹尼斯·罗斯曼(Denis Rothman)著,叶伟民 朱明超 译

出版社:清华大学出版社

出版时间:2022-08-01

ISBN:9787302613299

定价:¥128.00

购买这本书可以去
内容简介
  主要内容 ? 在机器学习生命周期的不同阶段规划和实施 XAI ? 评估目前流行的各种XAI开源工具的优缺点 ? 介绍如何处理机器学习数据中的偏见问题 ? 介绍处理机器学习数据中的道德伦理和法律问题的工具和相关知识 ? 介绍XAI 设计和可视化方面的**实践 ? 将XAI集成到Python模型中 ? 在整个机器学习生命周期中使用对应的XAI工具来解决业务问题
作者简介
  Denis Rothman 毕业于索邦大学和巴黎-狄德罗大学,他写过早的word2vectorembedding 解决方案之一。职业生涯伊始,他就创作了批AI 认知自然语言处理(NLP)聊天机器人之一,该聊天机器人为语言教学应用程序,用于Moët et Chandon 以及其他公司。他也为IBM 和服装生产商编写了一个AI 资源优化器。之后,他还编写了一种在全球范围内使用的高级计划和排程(APS)解决方案。“我要感谢那些从一开始就信任我的公司,是它们把AI 解决方案委托于我,并分担持续创新所带来的风险。我还要感谢我的家人,他们一直相信我会取得成功。”
目录
第1 章 使用Python 解释AI1
1.1 可解释AI 的定义2
1.1.1 从黑盒模型到XAI 白盒模型3
1.1.2 解释和阐释4
1.2 设计和提取5
1.3 医学诊断时间线中的XAI8
1.3.1 全科医生使用的标准AI 程序8
1.3.2 西尼罗河病毒——一个生死
攸关的案例15
1.3.3 Google Location History 与XAI 的
结合可以拯救生命21
1.3.4 下载Google Location History21
1.3.5 读取和显示Google Location
History25
1.3.6 用XAI 增强AI 诊断33
1.3.7 将XAI 应用于医学诊断
实验性程序38
1.4 本章小结42
1.5 习题42
1.6 参考资料43
1.7 扩展阅读43
第2 章 AI 偏差和道德方面的
白盒XAI 45
2.1 自动驾驶汽车系统AI 的
道德和偏差46
2.1.1 自动驾驶系统在生死关头是
如何做决策的47
2.1.2 电车难题47
2.1.3 麻省理工学院的道德
机器实验48
2.1.4 真实的生死攸关情景48
2.1.5 从道德伦理上解释AI 的
局限性49
2.2 对自动驾驶决策树的解释51
2.2.1 自动驾驶系统的两难困境52
2.2.2 导入模块53
2.2.3 检索数据集53
2.2.4 读取和拆分数据54
2.2.5 决策树分类器的理论描述56
2.2.6 创建默认的决策树分类器57
2.2.7 训练、测量、保存模型58
2.2.8 显示决策树60
2.3 将XAI 应用于自动驾驶
决策树62
2.4 使用XAI 和道德来控制
决策树68
2.4.1 加载模型69
2.4.2 测量准确率69
2.4.3 模拟实时案例69
2.4.4 由噪声引起的ML 偏差70
2.4.5 将道德和法律引入ML72
2.6 本章小结74
2.7 习题75
2.8 参考资料75
2.9 扩展阅读76
第3 章 用Facets 解释ML77
3.1 Facets 入门78
3.1.1 在Google Colaboratory
安装Facets78
3.1.2 检索数据集79
3.1.3 读取数据文件80
3.2 Facets Overview80
3.3 对Facets 统计信息进行排序82
3.3.1 按特征顺序排序83
3.3.2 按不均匀性排序83
3.3.3 按字母顺序排序86
3.3.4 按缺失值或零值的数量排序86
3.3.5 按分布距离排序87
3.4 Facets Dive88
3.4.1 构建Facets Dive 交互式界面88
3.4.2 定义数据点的标签90
3.4.3 定义数据点的颜色92
3.4.4 定义x 轴和y 轴的binning 93
3.4.5 定义散点图的x 轴和y 轴94
3.5 本章小结96
3.6 习题96
3.7 参考资料97
3.8 扩展阅读97
第4 章 Microsoft Azure 机器学习
模型的可解释与SHAP 99
4.1 SHAP 简介100
4.1.1 关键的SHAP 原则100
4.1.2 Shapley 值的数学表达式102
4.1.3 情感分析示例104
4.2 SHAP 入门108
4.2.1 安装SHAP108
4.2.2 导入数据109
4.2.3 向量化数据集 115
4.3 线性模型和逻辑回归117
4.3.1 创建、训练和可视化线性模型
的输出 117
4.3.2 定义线性模型119
4.3.3 使用SHAP 实现与模型无关的
解释121
4.3.4 创建线性模型解释器121
4.3.5 添加图表功能121
4.3.6 解释模型的预测结果123
4.4 本章小结 130
4.5 习题 131
4.6 参考资料131
4.7 扩展阅读131
4.8 其他出版物 132
第5 章 从零开始构建可解释AI
解决方案133
5.1 道德伦理和法律视角 134
5.2 美国人口普查数据问题 135
5.2.1 使用pandas 显示数据135
5.2.2 道德伦理视角137
5.3 机器学习视角 141
5.3.1 使用Facets Dive 显示
训练数据142
5.3.2 使用Facets Dive 分析
训练数据144
5.3.3 验证输出是否符合以上原则146
5.3.4 对输入数据进行转换153
5.4 将WIT 应用于转换后的
数据集 155
5.5 本章小结 162
5.6 习题 163
5.7 参考资料 163
5.8 扩展阅读 163
第6 章 用Google What-If Tool(WIT)
实现AI 的公平性165
6.1 从道德伦理视角谈AI
可解释和可阐释性 166
6.1.1 道德伦理视角166
6.1.2 法律视角167
6.1.3 解释和阐释167
6.1.4 准备符合道德伦理的数据集168
6.2 WIT 入门170
6.2.1 导入数据集171
6.2.2 对数据进行预处理172
6.2.3 创建数据结构以训练和
测试模型174
6.3 创建DNN 模型174
6.4 创建SHAP 解释器177
6.5 模型输出与SHAP 值178
6.6 WIT 数据点浏览器和
编辑器181
6.6.1 创建WIT181
6.6.2 数据点编辑器182
6.6.3 特征186
6.6.4 性能和公平性187
6.7 本章小结193
6.8 习题193
6.9 参考资料194
6.10 扩展阅读194
第7 章 可解释AI 聊天机器人 195
7.1 Dialogflow 的Python
客户端196
7.1.1 安装Google Dialogflow 的
Python 客户端197
7.1.2 创建Google Dialogflow 代理197
7.1.3 启用API 和服务200
7.1.4 实现Google Dialogflow 的
Python 客户端202
7.2 增强Google Dialogflow 的
Python 客户端205
7.2.1 创建对话函数205
7.2.2 在Dialogflow 实现XAI 的
限制206
7.2.3 在Dialogflow 创建意图206
7.2.4 XAI Python 客户端212
7.3 使用Google Dialogflow 的
CUI XAI 对话 216
7.3.1 将Dialogflow 集成到网站中216
7.3.2 Jupyter Notebook XAI 代理
管理器220
7.3.3 Google Assistant 220
7.4 本章小结 222
7.5 习题 223
7.6 扩展阅读 223
第8 章 LIME225
8.1 介绍LIME 226
8.1.1 LIME 的数学表示227
8.2 开始使用LIME 229
8.2.1 在Google Colaboratory 安装
LIME230
8.2.2 检索数据集和矢量化数据集230
8.3 一个实验性的AutoML
模块 231
8.3.1 创建AutoML 模板232
8.3.2 Bagging 分类器233
8.3.3 梯度提升分类器234
8.3.4 决策树分类器234
8.3.5 极度随机树分类器235
8.4 解释分数 236
8.5 训练模型并生成预测 236
8.5.1 分类器的交互选择237
8.5.2 完成预测过程238
8.6 LIME 解释器 239
8.6.1 创建LIME 解释器240
8.6.2 阐释LIME 解释器242
8.7 本章小结247
8.8 习题.248
8.9 参考资料248
8.10 扩展阅读248
第9 章 反事实解释法 249
9.1 反事实解释法250
9.1.1 数据集和动机250
9.1.2 使用WIT 可视化反事实
距离251
9.1.3 使用默认视图探索数据点
距离253
9.1.4 反事实解释的逻辑258
9.2 距离函数的选项262
9.2.1 L1 范数263
9.2.2 L2 范数264
9.2.3 自定义距离函数265
9.3 深度学习模型的架构266
9.3.1 调用 WIT266
9.3.2 自定义预测函数267
9.3.3 加载 Keras 预训练模型268
9.3.4 检索数据集和模型269
9.4 本章小结270
9.5 习题270
9.6 参考资料271
9.7 扩展阅读271
第10 章 对比解释法(CEM)  273
10.1 CEM274
10.2 将CEM应用于MNIST276
10.2.1 安装Alibi 并导入模块276
10.2.2 导入模块和数据集276
10.3 定义和训练CNN 模型279
10.3.1 创建CNN 模型281
10.3.2 训练CNN 模型281
10.3.3 将原始图像与解码图像
进行比较285
10.4 相关负面 287
10.4.1 CEM 参数288
10.4.2 初始化CEM解释器289
10.4.3 相关负面的解释290
10.5 本章小结 291
10.6 习题. 292
10.7 参考资料 292
10.8 扩展阅读 293
第11 章 锚解释法295
11.1 锚解释法 296
11.1.1 预测收入296
11.1.2 新闻组分类299
11.2 对ImageNet 图像预测
应用锚解释法 300
11.2.1 安装Alibi 并导入其他
所需模块300
11.2.2 加载InceptionV3 模型301
11.2.3 下载图像301
11.2.4 处理图像并进行预测302
11.2.5 构建锚图像解释器303
11.2.6 解释其他类别306
11.2.7 锚解释法的局限性308
11.3 本章小结 309
11.4 习题 309
11.5 参考资料 310
11.6 扩展阅读 310
第12 章 认知解释法 311
12.1 基于规则的认知解释法 312
12.1.1 从XAI 工具到XAI 概念313
12.1.2 定义认知解释法313
12.1.3 实践认知解释法315
12.1.4 特征的边际贡献319
12.2 矢量化器的认知解释法322
12.2.1 解释LIME 的矢量化器323
12.2.2 解释 IMDb 的SHAP
矢量化器325
12.3 CEM 的人类认知输入327
12.4 本章小结 331
12.5 习题332
12.6 扩展阅读 332
习题答案333
 
猜您喜欢

读书导航