强化学习中探索/利用的最佳实践

我的问题源于对 PyTorch DQN 教程中代码的检查,但接下来涉及到强化学习的一般情况:在强化学习中,实现最优探索/利用的最佳实践是什么?

在 DQN 教程中,steps_done 变量是一个全局变量,EPS_DECAY = 200。这意味着:在128步之后,epsilon 阈值 = 0.500;在889步之后,epsilon 阈值 = 0.0600;在1500步之后,epsilon 阈值 = 0.05047。

这可能适用于教程中介绍的 CartPole 问题——早期的回合可能非常短且任务相对简单——但对于需要更多探索的更复杂的问题呢?例如,如果我们有一个问题有40,000个回合,每个回合有10,000个时间步,我们应该如何设置 epsilon 贪婪探索策略?在 RL 工作中是否有一些常用的经验法则?


回答:

嗯,对于这种情况,我认为最好使用线性退火的 epsilon-greedy 策略,该策略根据步骤更新 epsilon:

EXPLORE = 3000000   # 探索的时间步数
FINAL_EPSILON = 0.001 # epsilon 的最终值
INITIAL_EPSILON = 1.0 # epsilon 的初始值
if epsilon > FINAL_EPSILON:
            epsilon -= (INITIAL_EPSILON - FINAL_EPSILON) / EXPLORE

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注