图灵测试的替代方案

在我的AI课程中,我们学到了一些关于图灵测试的知识。这让我开始思考它。我看到它存在一些局限性:

  1. 它被限制在特定的语境中。如果我不是设计一个与人类交谈的AI呢?
  2. 它倾向于表现得像人类,而不是理性地行动。例如,如果我正在设计一个控制核导弹的AI,我真的希望它表现得像人类吗?诚然,这是一个极端的例子,但你明白我的意思。
  3. 它可能受到一些无法表明计算机能够像人类一样思考的因素的影响。例如,假设我问2334 * 321是多少。我可以通过设备回答问题的速度来判断它是不是一台计算机,因为它可能会很快地回答我,而人类则需要计算一下。解决方案?让计算机暂停。

当然,我确信图灵测试在确定机器智能方面仍然有其地位。但我认为它的范围相当有限。有没有其他的替代方案?或者,我对它局限性的看法是错误的吗?

编辑:让我说清楚:我并不是建议放弃图灵测试。我只是好奇是否有其他测试可以克服它的局限性(可能用其他局限性来换取)。


回答:

告诉你吧:在我们回答你的问题之前,先定义一下“智能”。

最初描述的图灵测试也有一些其他问题,其中最值得注意的是它不是“有效的”,也就是说,没有办法判断它何时结束。

现在,看看你(非常合理的)反对意见:一方面,如果它给出正确答案太快,会让你感到怀疑;另一方面,你不确定给出错误答案是否会是好事,即使这会让你认为它可能“智能”。

但是,现在,考虑一下我们的互动:你不知道我不是一台智能计算机。比如,参考《星际迷航:下一代》中的Data先生?他肯定可以与人类区分开来,并且并非在任何时候都给出人类的反应,但大部分情况下都通过了测试。

现在,让我们考虑一下你遇到的人,他不是智能的,而完全是一个机制:没有“意识”,没有“灵魂”。(这种实体在文献中被称为“哲学僵尸”。)除了缺失的“意识”之外,这个人,或者说人的模拟体,在所有其他方面都表现得像一个人:受伤时表达痛苦,吃美味的食物时表现出快乐,对小猫表示喜爱
和小孩。(更正,因为我也想通过这个测试。)

你怎么能判断这个哲学僵尸“智能”呢?

这里的重点是,你提出了很好的问题,但并不一定有被广泛接受的答案。我对图灵测试的个人看法是,这是一个很好的有效测试,因为正如图灵本人所说,如果分不出智能或有知觉的计算机和一个真正智能的实体之间的区别,那么你必须假设它们没有区别。

你可以阅读的其他内容:

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注