如何减少Atari游戏中Q值的计算量?

我们知道Q学习需要大量的计算:

Q学习计算中的巨大状态数量

对于游戏AI来说,相较于OX游戏和围棋游戏,它需要更多的Q值。

如何计算这些大量的Q值呢?

谢谢。


回答:

MCTS实际上并没有减少任何Q值的计算量。

对于一个非常简单的Atari游戏AI来说,它需要的Q值远远超过3^(19×19)。

查看深度Q网络,它解决了你的问题。

我们可以用神经网络来表示我们的Q函数,该网络以状态(四个游戏屏幕)和动作作为输入,输出对应的Q值。或者我们可以只以游戏屏幕作为输入,输出每种可能动作的Q值。这种方法的优势在于,如果我们想要进行Q值更新或选择具有最高Q值的动作,我们只需通过网络进行一次前向传递,就能立即获得所有动作的所有Q值。

https://neuro.cs.ut.ee/demystifying-deep-reinforcement-learning/

Related Posts

为什么我们在K-means聚类方法中使用kmeans.fit函数?

我在一个视频中使用K-means聚类技术,但我不明白为…

如何获取Keras中ImageDataGenerator的.flow_from_directory函数扫描的类名?

我想制作一个用户友好的GUI图像分类器,用户只需指向数…

如何查看每个词的tf-idf得分

我试图了解文档中每个词的tf-idf得分。然而,它只返…

如何修复 ‘ValueError: Found input variables with inconsistent numbers of samples: [32979, 21602]’?

我在制作一个用于情感分析的逻辑回归模型时遇到了这个问题…

如何向神经网络输入两个不同大小的输入?

我想向神经网络输入两个数据集。第一个数据集(元素)具有…

逻辑回归与机器学习有何关联

我们正在开会讨论聘请一位我们信任的顾问来做机器学习。一…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注