如何减少Atari游戏中Q值的计算量?

我们知道Q学习需要大量的计算:

Q学习计算中的巨大状态数量

对于游戏AI来说,相较于OX游戏和围棋游戏,它需要更多的Q值。

如何计算这些大量的Q值呢?

谢谢。


回答:

MCTS实际上并没有减少任何Q值的计算量。

对于一个非常简单的Atari游戏AI来说,它需要的Q值远远超过3^(19×19)。

查看深度Q网络,它解决了你的问题。

我们可以用神经网络来表示我们的Q函数,该网络以状态(四个游戏屏幕)和动作作为输入,输出对应的Q值。或者我们可以只以游戏屏幕作为输入,输出每种可能动作的Q值。这种方法的优势在于,如果我们想要进行Q值更新或选择具有最高Q值的动作,我们只需通过网络进行一次前向传递,就能立即获得所有动作的所有Q值。

https://neuro.cs.ut.ee/demystifying-deep-reinforcement-learning/

Related Posts

在使用k近邻算法时,有没有办法获取被使用的“邻居”?

我想找到一种方法来确定在我的knn算法中实际使用了哪些…

Theano在Google Colab上无法启用GPU支持

我在尝试使用Theano库训练一个模型。由于我的电脑内…

准确性评分似乎有误

这里是代码: from sklearn.metrics…

Keras Functional API: “错误检查输入时:期望input_1具有4个维度,但得到形状为(X, Y)的数组”

我在尝试使用Keras的fit_generator来训…

如何使用sklearn.datasets.make_classification在指定范围内生成合成数据?

我想为分类问题创建合成数据。我使用了sklearn.d…

如何处理预测时不在训练集中的标签

已关闭。 此问题与编程或软件开发无关。目前不接受回答。…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注