Find-S/候选消除算法所需的最小训练样本数?

考虑实例空间为 x, y 平面上的整数点,其中 0 ≤ x, y ≤ 10,假设集由矩形构成(即形式为 (a ≤ x ≤ b, c ≤ y ≤ d),其中 0 ≤ a, b, c, d ≤ 10)。

为了使 Find-S 算法能够完美学习到一个特定的目标概念(例如,(2 ≤ x ≤ 4, 6 ≤ y ≤ 9)),需要提供的最小训练样本数是多少?在 Find-S 算法的情况下,我们什么时候可以说目标概念被精确地学习到了?最佳的查询策略是什么?

我还想知道候选消除算法的答案。

提前感谢。


回答:

你需要两个正例:(2,6) (2 <= x <= 2, 6 <= y <= 6) 然后 (4,9) (2 <= x <= 4, 6 <= y <= 9)。这样就完成了 S 集合,这也是使用 FIND-S 进行教学/学习的答案的结尾。

对于候选消除算法,我们需要提供负例来构建 G 集合。我们需要四个负例来定义矩形的四个边界:

  • G 最初为 (-Inf <= x <= Inf, -Inf <= y <= Inf)

添加 (3,5)-,我们得到假设:

  • (-Inf <= x <= Inf, 6 <= y <= Inf)

添加 (3,10)-

  • (-Inf <= x <= Inf, 6 <= y <= 9)

添加 (1,7)-

  • (2 <= x <= Inf, 6 <= y <= 9)

添加 (5,7)-

  • (2 <= x <= 4, 6 <= y <= 9)

所以现在 S=G={(2 <= x <= 4, 6 <= y <= 9)}。由于 S=G,它已经完美地学习了该概念。我在不同的格式中见过这个问题。如果问题域指定了这一点,则将 -Inf 替换为 0,将 Inf 替换为 10。

这是输入训练样本的最佳顺序。最坏的顺序是首先构建 G 集合,因为您将创建四个不同的候选假设,它们将通过第二个示例合并为三个,然后通过第三个示例合并为一个。使用 Mitchell 书中的树来解释 C-E 很有用,也许可以在每个假设旁边绘制假设图。

这个答案在这里得到证实:http://ssdi.di.fct.unl.pt/scl/docs/exercises/Clemens%20Dubslaff%20hm4.pdf

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注