如何将UNO建模为部分可观察马尔可夫决策过程(POMDP)

我正在尝试将UNO纸牌游戏建模为部分可观察马尔可夫决策过程(POMDP)。我做了一些研究,得出结论,状态将是卡片的数量,动作将是玩牌或从未见过的牌堆中抽牌。我在制定状态转换和观察模型方面遇到了困难。我认为,观察模型将取决于过去的动作和观察(历史),但为此我需要放宽马尔可夫假设。我想知道放宽马尔可夫假设是否是一个更好的选择?此外,我应该如何具体形成状态和观察模型。提前感谢。


回答:

我认为在POMDP中,状态仍然应该是“完全真相”(所有卡片的位置),而转换只是游戏规则(包括其他玩家的策略?!)。观察当然不应该依赖于任何历史,仅依赖于状态,否则你就违反了马尔可夫假设。POMDP的要点是,代理可以通过分析历史来获取关于当前状态的信息。不过,我不太确定这是否以及如何适用于UNO。如果你知道哪些卡片被打出以及它们的顺序,你还能通过使用历史来获取信息吗?可能不能。不知道,但也许将这个游戏视为POMDP并不合理,即使你使用的是为POMDP设计的解决方案。

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注