书籍详情

强化学习

强化学习

作者:(荷)马可·威宁,马丁·范·奥特罗

出版社:机械工业出版社

出版时间:2018-07-01

ISBN:9787111600220

定价:¥119.00

购买这本书可以去
内容简介
  本书共有19章,分为六大部分,详细介绍了强化学习中各领域的基本理论和新进展,内容包括:MDP、动态规划、蒙特卡罗方法、批处理强化学习、TD学习、Q学习、策略迭代的小二乘法、迁移学习、贝叶斯强化学习、、一阶逻辑MDP、层次式强化学习、演化计算、预测性定义状态表示、去中心化的部分可观察MDP、博弈论和多学习器强化学习等内容,并阐述强化学习与心理和神经科学、游戏领域、机器人领域的关系和应用,后提出未来发展趋势及研究热点问题,有助于年轻的研究者了解整个强化学习领域,发现新的研究方向。本书适合作为高等院校机器学习相关课程的参考书,也可作为人工智能领域从业技术人员的参考用书。
作者简介
暂缺《强化学习》作者简介
目录

目  录

\n


\n

Reinforcement Learning: State-of-the-Art

\n


\n

译者序

\n


\n

序言

\n


\n

前言

\n


\n

作者清单

\n


\n

第一部分 绪论

\n


\n

第1章 强化学习和马尔可夫决策过程  2

\n


\n

1.1 简介  2

\n


\n

1.2 时序决策  3

\n


\n

1.2.1 接近时序决策  4

\n


\n

1.2.2 在线学习与离线学习  4

\n


\n

1.2.3 贡献分配  5

\n


\n

1.2.4 探索–运用的平衡  5

\n


\n

1.2.5 反馈、目标和性能  5

\n


\n

1.2.6 表达  6

\n


\n

1.3 正式的框架  6

\n


\n

1.3.1 马尔可夫决策过程  7

\n


\n

1.3.2 策略  9

\n


\n

1.3.3 最优准则和减量  9

\n


\n

1.4 价值函数和贝尔曼方程  10

\n


\n

1.5 求解马尔可夫决策过程  12

\n


\n

1.6 动态规划:基于模型的解决方案  13

\n


\n

1.6.1 基本的动态规划算法  13

\n


\n

1.6.2 高效的动态规划算法  17

\n


\n

1.7 强化学习:无模型的解决方案  19

\n


\n

1.7.1 时序差分学习  20

\n


\n

1.7.2 蒙特卡罗方法  23

\n


\n

1.7.3 高效的探索和价值更新  24

\n


\n

1.8 总结  27

\n


\n

参考文献  27

\n


\n

第二部分 高效的解决方案框架

\n


\n

第2章 批处理强化学习  32

\n


\n

2.1 简介  32

\n


\n

2.2 批处理强化学习问题  33

\n


\n

2.2.1 批处理学习问题  33

\n


\n

2.2.2 增长批处理学习问题  34

\n


\n

2.3 批处理强化学习算法的基础  34

\n


\n

2.4 批处理强化学习算法  37

\n


\n

2.4.1 基于核的近似动态规划  37

\n


\n

2.4.2 拟合Q迭代  39

\n


\n

2.4.3 基于最小二乘的策略迭代  40

\n


\n

2.4.4 识别批处理算法  41

\n


\n

2.5 批处理强化学习理论  42

\n


\n

2.6 批处理强化学习的实现  43

\n


\n

2.6.1 神经拟合Q迭代  44

\n


\n

2.6.2 控制应用中的神经拟合Q迭代算法  45

\n


\n

2.6.3 面向多学习器的批处理强化学习  46

\n


\n

2.6.4 深度拟合Q迭代  48

\n


\n

2.6.5 应用/发展趋势  49

\n


\n

2.7 总结  50

\n


\n

参考文献  50

\n


\n

第3章 策略迭代的最小二乘法  53

\n


\n

3.1 简介  53

\n


\n

3.2 预备知识:经典策略迭代算法  54

\n


\n

3.3 近似策略评估的最小二乘法  55

\n


\n

3.3.1 主要原则和分类  55

\n


\n

3.3.2 线性情况下和矩阵形式的方程  57

\n


\n

3.3.3 无模型算法的实现  60

\n


\n

3.3.4 参考文献  62

\n


\n

3.4 策略迭代的在线最小二乘法  63

\n


\n

3.5 例子:car-on-the-hill  64

\n


\n

3.6 性能保障  66

\n


\n

3.6.1 渐近收敛性和保证  66

\n


\n

3.6.2 有限样本的保证  68

\n


\n

3.7 延伸阅读  73

\n


\n

参考文献  74

\n


\n

第4章 学习和使用模型  78

\n


\n

4.1 简介  78

\n


\n

4.2 什么是模型  79

\n


\n

4.3 规划  80

\n


\n

4.4 联合模型和规划  82

\n


\n

4.5 样本复杂度  84

\n


\n

4.6 分解域  86

\n


\n

4.7 探索  88

\n


\n

4.8 连续域  91

\n


\n

4.9 实证比较  93

\n


\n

4.10 扩展  95

\n


\n

4.11 总结  96

\n


\n

参考文献  97

\n


\n

第5章 强化学习中的迁移:框架和概观  101

\n


\n

5.1 简介  101

\n


\n

5.2 强化学习迁移的框架和分类  102

\n


\n

5.2.1 迁移框架  102

\n


\n

5.2.2 分类  104

\n


\n

5.3 固定状态–动作空间中从源到目标迁移的方法  108

\n


\n

5.3.1 问题形式化  108

\n


\n

5.3.2 表示迁移  109

\n


\n

5.3.3 参数迁移  110

\n


\n

5.4 固定状态–动作空间中跨多任务迁移的方法  111

\n


\n

5.4.1 问题形式化  111

\n


\n

5.4.2 实例迁移  111

\n


\n

5.4.3 表示迁移  112

\n


\n

5.4.4 参数迁移  113

\n


\n

5.5 不同状态–动作空间中从源到目标任务迁移的方法  114

\n


\n

5.5.1 问题形式化  114

\n


\n

5.5.2 实例迁移  115

\n


\n

5.5.3 表示迁移  115

\n


\n

5.5.4 参数迁移  116

\n


\n

5.6 总结和开放性问题  116

\n


\n

参考文献  117

\n


\n

第6章 探索的样本复杂度边界  122

\n


\n

6.1 简介  122

\n


\n

6.2 预备知识  123

\n


\n

6.3 形式化探索效率  124

\n


\n

6.3.1 探索的样本复杂度和PAC-MDP  124

\n


\n

6.3.2 遗憾最小化  125

\n


\n

6.3.3 平均损失  127

\n


\n

6.3.4 贝叶斯框架  127

\n


\n

6.4 通用PAC-MDP定理  128

\n


\n

6.5 基于模型的方法  130

\n


\n

6.5.1 Rmax  130

\n


\n

6.5.2 Rmax的泛化  132

\n


\n

6.6 无模型方法  138

\n


\n

6.7 总结  141

\n


\n

参考文献  141

\n


\n

第三部分 建设性的表征方向

\n


\n

第7章 连续状态和动作空间中的强化学习  146

\n


\n

7.1 简介  146

\n


\n

7.1.1 连续域中的马尔可夫决策过程  147

\n


\n

7.1.2 求解连续MDP的方法  148

\n


\n

7.2 函数逼近  149

\n


\n

7.2.1 线性函数逼近  150

\n


\n

7.2.2 非线性函数逼近  153

\n


\n

7.2.3 更新参数  154

\n


\n

7.3 近似强化学习  157

\n


\n

7.3.1 数值逼近  157

\n


\n

7.3.2 策略逼近  162

\n


\n

7.4 双极车杆实验  168

\n


\n

7.5 总结  171

\n


\n

参考文献  171

\n


\n

第8章 综述:求解一阶逻辑马尔可夫决策过程  179

\n


\n

8.1 关系世界中的顺序决策简介  179

\n


\n

8.1.1 马尔可夫决策过程:代表性和可扩展性  180

\n


\n

8.1.2 简短的历史和与其他领域的联系  181

\n


\n

8.2 用面向对象和关系扩展马尔可夫决策过程  183

\n


\n

8.2.1 关系表示与逻辑归纳  183

\n


\n

8.2.2 关系型马尔可夫决策过程  184

\n


\n

8.2.3 抽象问题和求解  184

\n


\n

8.3 基于模型的解决方案  186

\n


\n

8.3.1 贝尔曼备份的结构  186

\n


\n

8.3.2 确切的基于模型的算法  187

\n


\n

8.3.3 基于近似模型的算法  190

\n


\n

8.4 无模型的解决方案  192

\n


\n

8.4.1 固定泛化的价值函数学习  192

\n


\n

8.4.2 带自适应泛化的价值函数  193

\n


\n

8.4.3 基于策略的求解技巧  196

\n


\n

8.5 模型、层级、偏置  198

\n


\n

8.6 现在的发展  201

\n


\n

8.7 总结和展望  203

\n


\n

参考文献  204

\n


\n

第9章 层次式技术  213

\n


\n

9.1 简介  213

\n


\n

9.2 背景  215

\n


\n

9.2.1 抽象动作  215

\n


\n

9.2.2 半马尔可夫决策问题  216

\n


\n

9.2.3 结构  217

\n


\n

9.2.4 状态抽象  218

\n


\n

9.2.5 价值函数分解  219

\n


\n

9.2.6 优化  220

\n


\n

9.3 层次式强化学习技术  220

\n


\n

9.3.1 选项  221

\n


\n

9.3.2 HAMQ学习  222

\n


\n

9.3.3 MAXQ  223

\n


\n

9.4 学习结构  226

\n


\n

9.5 相关工作和当前研究  228

\n


\n

9.6 总结  230

\n


\n

参考文献  230

\n


\n

第10章 针对强化学习的演化计算  235

\n


\n

10.1 简介  235

\n


\n

10.2 神经演化  237

\n


\n

10.3 TWEANN  239

\n


\n

10.3.1 挑战  239

\n


\n

10.3.2 NEAT  240

\n


\n

10.4 混合方法  241

\n


\n

10.4.1 演化函数近似  242

\n


\n

10.4.2 XCS  243

\n


\n

10.5 协同演化  245

\n


\n

10.5.1 合作式协同演化  245

\n


\n

10.5.2 竞争式协同演化  246

\n


\n

10.6 生成和发展系统  247

\n


\n

10.7 在线方法  249

\n


\n

10.7.1 基于模型的技术  249

\n


\n

10.7.2 在线演化计算  250

\n


\n

10.8 总结  251

\n


\n

参考文献  251

\n


\n

第四部分 概率模型

\n


\n

第11章 贝叶斯强化学习  260

\n


\n

11.1 简介  260

\n


\n

11.2 无模型贝叶斯强化学习  261

\n


\n

11.2.1 基于价值函数的算法  261

\n


\n

11.2.2 策略梯度算法  264

\n


\n

11.2.3 演员–评论家算法  266

\n


\n

11.3 基于模型的贝叶斯强化学习  268

\n


\n

11.3.1 由POMDP表述的贝叶斯强化学习  268

\n


\n

11.3.2 通过动态规划的贝叶斯强化学习  269

\n


\n

11.3.3 近似在线算法  271

\n


\n

11.3.4 贝叶斯多任务强化学习  272

\n


\n

11.3.5 集成先验知识  273

\n


\n

11.4 有限样本分析和复杂度问题  274

\n


\n

11.5 总结和讨论  275

\n


\n

参考文献  275

\n


\n

第12章 部分可观察的马尔可夫决策过程  279

\n


\n

12.1 简介  279

\n


\n

12.2 部分可观察环境中的决策  280

\n


\n

12.2.1 POMDP模型  280

\n


\n

12.2.2 连续和结构化的表达  281

\n


\n

12.2.3 优化决策记忆  282

\n


\n

12.2.4 策略和价值函数  284

\n


\n

12.3 基于模型的技术  285

\n


\n

12.3.1 基于MDP的启发式解决方案  285

\n


\n

12.3.2 POMDP的值迭代  286

\n


\n

12.3.3 确切的值迭代  288

\n


\n

12.3.4 基于点的值迭代方法  290

\n


\n

12.3.5 其他近似求解方法  291

\n


\n

12.4 无先验模型的决策  292

\n


\n

12.4.1 无记忆技术  292

\n


\n

12.4.2 学习内部记忆  292

\n


\n

12.5 近期研究趋势  294

\n


\n

参考文献  295

\n


\n

第13章 预测性定义状态表示  300

\n


\n

13.1 简介  300

\n


\n

13.1.1 状态是什么  301

\n


\n

13.1.2 哪一个状态表示  301

\n


\n

13.1.3 为什么使用预测性定义模型  302

\n

......

\n


猜您喜欢

读书导航