第1章 概述
1.1 动态规划与强化学习问题
1.2 动态规划与强化学习中的逼近
1.3 关于本书
第2章 动态规划与强化学习介绍
2.1 引言
2.2 马尔可夫决策过程
2.2.1 确定性情况
2.2.2 随机性情况
2.3 值迭代
2.3.1 基于模型的值迭代
2.3.2 模型无关的值迭代与探索的必要性
2.4 策略迭代
2.4.1 基于模型的策略迭代
2.4.2 模型无关的策略迭代
2.5 策略搜索
2.6 总结与讨论
第3章 大规模连续空间中的动态规划与强化学习
3.1 介绍
3.2 大规模连续空间中近似的必要性
3.3 近似框架
3.3.1 带参近似
3.3.2 无参近似
3.3.3 带参与无参逼近器的比较
3.3.4 附注
3.4 近似值迭代
3.4.1 基于模型的带参近似值迭代算法
3.4.2 模型无关的带参近似值迭代算法
3.4.3 无参近似值迭代算法
3.4.4 非扩张近似的作用及收敛性
3.4.5 实例:用于直流电机的近似Q值迭代
3.5 近似策略迭代
3.5.1 用于近似策略评估的类值迭代算法
3.5.2 基于线性带参近似的模型无关策略评估
3.5.3 基于无参近似的策略评估
3.5.4 带回滚的基于模型的近似策略评估
3.5.5 策略改进与近似策略迭代
3.5.6 理论保障
3.5.7 实例:用于直流电机的最小二乘策略迭代
3.6 自动获取值函数逼近器
3.6.1 基函数最优化方法
3.6.2 基函数构造
3.6.3 附注
3.7 近似策略搜索
3.7.1 策略梯度与行动者-评论家算法
3.7.2 梯度无关的策略搜索
3.7.3 实例:用于直流电机问题的梯度无关策略搜索
3.8 近似值迭代、近似策略迭代及近似策略搜索算法的比较
3.9 总结与讨论
第4章 基于模糊表示的近似值迭代
4.1 引言
4.2 模糊Q值迭代
4.2.1 模糊Q值迭代的近似和投影映射
4.2.2 同步和异步模糊Q值迭代
4.3 模糊Q值迭代的分析
4.3.1 收敛性
4.3.2 一致性
4.3.3 计算复杂度
4.4 优化隶属度函数
4.4.1 隶属度函数优化的一般方法
4.4.2 交叉熵优化
4.4.3 基于交叉熵隶属度函数优化的模糊Q值迭代
4.5 实验研究
4.5.1 直流电机:收敛性和一致性研究
4.5.2 双连杆机械臂:动作插值的效果以及与拟合Q值迭代的比较
4.5.3 倒立摆:实时控制
4.5.4 过山车:隶属度函数优化的效果
4.6 总结与讨论
第5章 用于在线学习和连续动作控制的近似策略迭代
5.1 引言
5.2 最小二乘策略迭代的概述
5.3 在线最小二乘策略迭代
5.4 使用先验知识的在线LSPI
5.4.1 使用策略近似的在线LSPI
5.4.2 具有单调策略的在线LSPI
5.5 采用连续动作、多项式近似的LSPI
5.6 实验研究
5.6.1 用于倒立摆的在线LSPI
5.6.2 用于双连杆机械臂的在线LSPI
5.6.3 使用直流电机先验知识的在线LSPI
5.6.4 在倒立摆中使用带有连续动作逼近器的LSPI
5.7 总结与讨论
第6章 基于交叉熵基函数优化的近似策略搜索
6.1 介绍
6.2 交叉熵优化方法
6.3 交叉熵策略搜索
6.3.1 一般方法
6.3.2 基于径向基函数的交叉熵策略搜索
6.4 实验研究
6.4.1 离散时间二重积分
6.4.2 自行车平衡
6.4.3 HIV传染病控制的计划性间断治疗
6.5 总结与讨论
附录A 极端随机树
附录B 交叉熵方法
缩略语
参考文献