如何在OpenAI中创建新的健身房环境?

我有一个任务,需要制作一个AI代理,通过机器学习来学习玩视频游戏。我想使用OpenAI Gym创建一个新的环境,因为我不想使用现有的环境。我该如何创建一个新的、自定义的环境呢?

另外,有没有其他方法可以开始开发一个AI代理来玩特定的视频游戏,而不需要OpenAI Gym的帮助?


回答:

查看我的banana-gym,这是一个非常小的环境示例。

创建新环境

请查看仓库的主页面:

https://github.com/openai/gym/blob/master/docs/creating_environments.md

步骤如下:

  1. 创建一个具有PIP包结构的新仓库

它的结构应该如下所示

gym-foo/  README.md  setup.py  gym_foo/    __init__.py    envs/      __init__.py      foo_env.py      foo_extrahard_env.py

关于其内容,请按照上面的链接进行操作。未提及的细节特别是foo_env.py中一些函数的具体实现方式。查看示例和gym.openai.com/docs/会有所帮助。这里有一个示例:

class FooEnv(gym.Env):    metadata = {'render.modes': ['human']}    def __init__(self):        pass    def _step(self, action):        """        参数        ----------        action :        返回值        -------        ob, reward, episode_over, info : tuple            ob (object) :                表示你对环境观察的环境特定对象。            reward (float) :                通过前一个动作获得的奖励量。奖励的规模在不同环境中有所不同,但目标始终是增加你的总奖励。            episode_over (bool) :                是否需要再次重置环境。大多数(但不是全部)任务被划分为明确定义的回合,done为True表示回合已经结束。(例如,可能杆子倾斜得太厉害,或者你失去了最后一条命。)            info (dict) :                 用于调试的诊断信息。有时对学习有用(例如,它可能包含环境最后状态变化的原始概率)。然而,官方对你的代理的评估不允许使用这些信息进行学习。        """        self._take_action(action)        self.status = self.env.step()        reward = self._get_reward()        ob = self.env.getState()        episode_over = self.status != hfo_py.IN_GAME        return ob, reward, episode_over, {}    def _reset(self):        pass    def _render(self, mode='human', close=False):        pass    def _take_action(self, action):        pass    def _get_reward(self):        """ 奖励是基于XY给出的。 """        if self.status == FOOBAR:            return 1        elif self.status == ABC:            return self.somestate ** 2        else:            return 0

使用你的环境

import gymimport gym_fooenv = gym.make('MyEnv-v0')

示例

  1. https://github.com/openai/gym-soccer
  2. https://github.com/openai/gym-wikinav
  3. https://github.com/alibaba/gym-starcraft
  4. https://github.com/endgameinc/gym-malware
  5. https://github.com/hackthemarket/gym-trading
  6. https://github.com/tambetm/gym-minecraft
  7. https://github.com/ppaquette/gym-doom
  8. https://github.com/ppaquette/gym-super-mario
  9. https://github.com/tuzzer/gym-maze

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注