我在阅读萨顿和巴托的《强化学习》一书,书中用一个迷宫问题作为Dyna-Q的例子。例子显示,通过50步的规划,算法仅在3个回合中就找到了最优路径。
这是否比50步Q学习有所改进?看起来你只是在每个回合中运行了一堆50步的Q学习算法,所以说它在3个回合中找到最优路径似乎有些误导。
还有一个大问题是,我以为Dyna-Q在没有环境模型时才有用,但在本例中我们不是已经有了环境模型吗?如果我们已经有了模型,为什么还要用所有的内存来保存我们之前的所有动作?我很难理解为什么这是一个Dyna-Q的好例子。
回答:
理论上,我们是没有模型的。我们在实践中只是为了模拟才有了模型,但在现实生活中我们是没有的。
Dyna-Q基本上是通过样本来近似你的模型。你不是在学习转换和奖励函数,而是“查询”你的数据:过去当我在状态s
执行动作a
时发生了什么?如果一切都是确定性的,这就相当于知道了精确的模型。
你也可以这样想。在经典的Q学习中,你只知道你当前的s,a
,所以你只在访问时更新Q(s,a)
。在Dyna-Q中,每次你从内存中查询它们时,你都会更新所有Q(s,a)
。你不需要重新访问它们。这大大加快了速度。
此外,非常常见的“重放记忆”基本上是重新发明了Dyna-Q,尽管没有人承认这一点。