如何在OpenAI中创建新的健身房环境?

我有一个任务,需要制作一个AI代理,通过机器学习来学习玩视频游戏。我想使用OpenAI Gym创建一个新的环境,因为我不想使用现有的环境。我该如何创建一个新的、自定义的环境呢?

另外,有没有其他方法可以开始开发一个AI代理来玩特定的视频游戏,而不需要OpenAI Gym的帮助?


回答:

查看我的banana-gym,这是一个非常小的环境示例。

创建新环境

请查看仓库的主页面:

https://github.com/openai/gym/blob/master/docs/creating_environments.md

步骤如下:

  1. 创建一个具有PIP包结构的新仓库

它的结构应该如下所示

gym-foo/  README.md  setup.py  gym_foo/    __init__.py    envs/      __init__.py      foo_env.py      foo_extrahard_env.py

关于其内容,请按照上面的链接进行操作。未提及的细节特别是foo_env.py中一些函数的具体实现方式。查看示例和gym.openai.com/docs/会有所帮助。这里有一个示例:

class FooEnv(gym.Env):    metadata = {'render.modes': ['human']}    def __init__(self):        pass    def _step(self, action):        """        参数        ----------        action :        返回值        -------        ob, reward, episode_over, info : tuple            ob (object) :                表示你对环境观察的环境特定对象。            reward (float) :                通过前一个动作获得的奖励量。奖励的规模在不同环境中有所不同,但目标始终是增加你的总奖励。            episode_over (bool) :                是否需要再次重置环境。大多数(但不是全部)任务被划分为明确定义的回合,done为True表示回合已经结束。(例如,可能杆子倾斜得太厉害,或者你失去了最后一条命。)            info (dict) :                 用于调试的诊断信息。有时对学习有用(例如,它可能包含环境最后状态变化的原始概率)。然而,官方对你的代理的评估不允许使用这些信息进行学习。        """        self._take_action(action)        self.status = self.env.step()        reward = self._get_reward()        ob = self.env.getState()        episode_over = self.status != hfo_py.IN_GAME        return ob, reward, episode_over, {}    def _reset(self):        pass    def _render(self, mode='human', close=False):        pass    def _take_action(self, action):        pass    def _get_reward(self):        """ 奖励是基于XY给出的。 """        if self.status == FOOBAR:            return 1        elif self.status == ABC:            return self.somestate ** 2        else:            return 0

使用你的环境

import gymimport gym_fooenv = gym.make('MyEnv-v0')

示例

  1. https://github.com/openai/gym-soccer
  2. https://github.com/openai/gym-wikinav
  3. https://github.com/alibaba/gym-starcraft
  4. https://github.com/endgameinc/gym-malware
  5. https://github.com/hackthemarket/gym-trading
  6. https://github.com/tambetm/gym-minecraft
  7. https://github.com/ppaquette/gym-doom
  8. https://github.com/ppaquette/gym-super-mario
  9. https://github.com/tuzzer/gym-maze

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注