我正在阅读格伦·西曼和大卫·M·伯格合著的《AI for Game Developers》一书,其中他们以视频游戏AI为例,展示了一个能够学习的基于规则的系统。
基本上,玩家有三种可能的移动,并以三次打击的组合进行攻击。AI的目标是预测玩家的第三次打击。系统的规则包括所有可能的三次移动组合。每个规则都有一个与之相关的“权重”。每当系统猜错时,该规则的权重就会降低。当系统需要选择一个规则时,它会选择权重最高的规则。
这与基于强化学习的系统有何不同?谢谢!
回答:
是的,这在术语的既定用法中属于强化学习。你可能会遇到一些现今积极研究者的反对,因为“热门”部分涉及深度学习应用。
你的应用有一个明确定义的游戏树可供搜索;你可以用一个直接对应于游戏的数学结构来引导强化。这是机器学习应用,沿用了已确立的学习算法。
当前的“热门”研究正在处理更复杂的游戏情况,其中动作与其结果之间的对应关系未明确定义。这些视频游戏使用DL网络而不是游戏树,努力最终发现将导致更高成功率的动作规则。它们坚定地处于AI的DL部分,这就是为什么你在阅读中看到分区的原因。