Q-learning中的收敛标准

我正在尝试Q-learning算法。我已经阅读了不同的资料并理解了该算法,然而,似乎没有明确的、数学上支持的收敛标准。

大多数资料建议迭代多次(例如,N = 1000),而其他资料则说当所有状态和动作对(s, a)被无限次访问时就达到了收敛。但问题是,无限次到底是多少。对于想要手动解决算法的人来说,最好的标准是什么?

如果有人能在这方面指导我,我将不胜感激。我也希望能看到相关的文章。

此致敬礼。


回答:

Q-Learning是强化学习中的一个重大突破,因为它是第一个保证收敛到最优策略的算法。它最初在(Watkins, 1989)中提出,其收敛证明在(Watkins & Dayan, 1992)中得到了完善。

简而言之,要保证在极限情况下收敛,即策略在任意长的时间后会变得任意接近最优策略,必须满足两个条件。请注意,这些条件并没有说明策略接近最优策略的速度有多快。

  1. 学习率必须趋近于零,但不能太快。 正式地,这要求学习率的总和必须发散,但其平方的总和必须收敛。一个具有这些属性的序列示例是1/1, 1/2, 1/3, 1/4, ...
  2. 每个状态-动作对必须被无限次访问。 这有一个精确的数学定义:在每个状态下,每个动作被策略选择的概率必须非零,即π(s, a) > 0 对所有(s, a)成立。在实践中,使用ε-贪婪策略(其中ε > 0)可以确保满足这一条件。

Related Posts

Keras Dense层输入未被展平

这是我的测试代码: from keras import…

无法将分类变量输入随机森林

我有10个分类变量和3个数值变量。我在分割后直接将它们…

如何在Keras中对每个输出应用Sigmoid函数?

这是我代码的一部分。 model = Sequenti…

如何选择类概率的最佳阈值?

我的神经网络输出是一个用于多标签分类的预测类概率表: …

在Keras中使用深度学习得到不同的结果

我按照一个教程使用Keras中的深度神经网络进行文本分…

‘MatMul’操作的输入’b’类型为float32,与参数’a’的类型float64不匹配

我写了一个简单的TensorFlow代码,但不断遇到T…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注