大家好,我是神经网络的新手。我用Python编写了以下简单的架构,由于井字游戏棋盘的维度,输入应有9个状态,而输出我希望预测最佳动作,因此输出应有9个值,每个值代表一个动作。其中最高的值是我们感兴趣的。
def agent(state_shape, action_shape): learning_rate = 0.001 init = tf.keras.initializers.HeUniform() model = keras.Sequential() model.add(keras.layers.Dense(24, input_shape=state_shape, activation='relu', kernel_initializer=init)) model.add(keras.layers.Dense(12, activation='relu', kernel_initializer=init)) model.add(keras.layers.Dense(action_shape, activation='linear', kernel_initializer=init)) model.compile(loss=tf.keras.losses.Huber(), optimizer=tf.keras.optimizers.Adam(lr=learning_rate), metrics=['accuracy']) return model
我的数据集由井字游戏的游戏过程表示,看起来如下(我总是从没有占用的状态开始,然后用特定的动作填充它们):
[[['_', '_', '_', '_', '_', '_', '_', '_', '_'], ['_', '_', '_', '_', 'X', '_', '_', '_', 'O'], ['O', 'X', '_', '_', 'X', '_', '_', '_', 'O'], ['O', 'X', 'X', '_', 'X', '_', '_', 'O', 'O'], ['O', 'X', 'X', 'X', 'X', 'O', '_', 'O', 'O'], ['O', 'X', 'X', 'X', 'X', 'O', 'X', 'O', 'O']], [['_', '_', '_', '_', '_', '_', '_', '_', '_'], ['O', 'X', '_', '_', '_', '_', '_', '_', '_'], ['O', 'X', '_', '_', '_', '_', '_', 'X', 'O'], ['O', 'X', '_', '_', 'X', '_', '_', 'X', 'O']]
有人知道如何使用这些数据来训练之前展示的模型吗?
回答:
你有两种选择。你可以使用监督学习。基本思路是,给定当前状态,预测正确的动作。你的网络将有9个输出神经元,每个状态一个。每个输入的真实标签是数据集中该输入所对应的棋盘上的移动位置。你需要为两种情况训练你的网络:一种是它先手(用X),另一种是它后手(用O)。然而,因为你是使用监督学习,如果你为X训练,那么你应该只选择那些X获胜的游戏。同理,当你为O训练时也是如此。这是因为在监督学习中,你通过提供标签来教网络该做什么。然而,如果游戏导致X失败,那么你就不能训练网络去预测棋盘上移动的位置,因为这会教你的系统去输,而不是赢。
另一种选择是强化学习。基本思路是你可以让你的网络与自己对抗,让网络自己玩。如果你的网络赢了自己,那么对于游戏中的所有移动,你分配一个奖励值1。否则,如果它输了,你分配一个奖励值-1。如果是平局,你为所有移动分配一个奖励值0。这将鼓励或阻止网络再次使用这些移动。这种让两个相同网络版本对抗的概念类似于AlphaGo和其他更近期的变体。在这种情况下,你不需要数据集,因为数据集将通过网络与自己对抗动态收集。然而,这可能需要更复杂的编码实现。