我有一个任务,需要制作一个AI代理,通过机器学习来学习玩视频游戏。我想使用OpenAI Gym创建一个新的环境,因为我不想使用现有的环境。我该如何创建一个新的、自定义的环境呢?
另外,有没有其他方法可以开始开发一个AI代理来玩特定的视频游戏,而不需要OpenAI Gym的帮助?
回答:
查看我的banana-gym
,这是一个非常小的环境示例。
创建新环境
请查看仓库的主页面:
https://github.com/openai/gym/blob/master/docs/creating_environments.md
步骤如下:
- 创建一个具有PIP包结构的新仓库
它的结构应该如下所示
gym-foo/ README.md setup.py gym_foo/ __init__.py envs/ __init__.py foo_env.py foo_extrahard_env.py
关于其内容,请按照上面的链接进行操作。未提及的细节特别是foo_env.py
中一些函数的具体实现方式。查看示例和gym.openai.com/docs/会有所帮助。这里有一个示例:
class FooEnv(gym.Env): metadata = {'render.modes': ['human']} def __init__(self): pass def _step(self, action): """ 参数 ---------- action : 返回值 ------- ob, reward, episode_over, info : tuple ob (object) : 表示你对环境观察的环境特定对象。 reward (float) : 通过前一个动作获得的奖励量。奖励的规模在不同环境中有所不同,但目标始终是增加你的总奖励。 episode_over (bool) : 是否需要再次重置环境。大多数(但不是全部)任务被划分为明确定义的回合,done为True表示回合已经结束。(例如,可能杆子倾斜得太厉害,或者你失去了最后一条命。) info (dict) : 用于调试的诊断信息。有时对学习有用(例如,它可能包含环境最后状态变化的原始概率)。然而,官方对你的代理的评估不允许使用这些信息进行学习。 """ self._take_action(action) self.status = self.env.step() reward = self._get_reward() ob = self.env.getState() episode_over = self.status != hfo_py.IN_GAME return ob, reward, episode_over, {} def _reset(self): pass def _render(self, mode='human', close=False): pass def _take_action(self, action): pass def _get_reward(self): """ 奖励是基于XY给出的。 """ if self.status == FOOBAR: return 1 elif self.status == ABC: return self.somestate ** 2 else: return 0
使用你的环境
import gymimport gym_fooenv = gym.make('MyEnv-v0')
示例
- https://github.com/openai/gym-soccer
- https://github.com/openai/gym-wikinav
- https://github.com/alibaba/gym-starcraft
- https://github.com/endgameinc/gym-malware
- https://github.com/hackthemarket/gym-trading
- https://github.com/tambetm/gym-minecraft
- https://github.com/ppaquette/gym-doom
- https://github.com/ppaquette/gym-super-mario
- https://github.com/tuzzer/gym-maze