在我的AI课程中,我们学到了一些关于图灵测试的知识。这让我开始思考它。我看到它存在一些局限性:
- 它被限制在特定的语境中。如果我不是设计一个与人类交谈的AI呢?
- 它倾向于表现得像人类,而不是理性地行动。例如,如果我正在设计一个控制核导弹的AI,我真的希望它表现得像人类吗?诚然,这是一个极端的例子,但你明白我的意思。
- 它可能受到一些无法表明计算机能够像人类一样思考的因素的影响。例如,假设我问2334 * 321是多少。我可以通过设备回答问题的速度来判断它是不是一台计算机,因为它可能会很快地回答我,而人类则需要计算一下。解决方案?让计算机暂停。
当然,我确信图灵测试在确定机器智能方面仍然有其地位。但我认为它的范围相当有限。有没有其他的替代方案?或者,我对它局限性的看法是错误的吗?
编辑:让我说清楚:我并不是建议放弃图灵测试。我只是好奇是否有其他测试可以克服它的局限性(可能用其他局限性来换取)。
回答:
告诉你吧:在我们回答你的问题之前,先定义一下“智能”。
最初描述的图灵测试也有一些其他问题,其中最值得注意的是它不是“有效的”,也就是说,没有办法判断它何时结束。
现在,看看你(非常合理的)反对意见:一方面,如果它给出正确答案太快,会让你感到怀疑;另一方面,你不确定给出错误答案是否会是好事,即使这会让你认为它可能“智能”。
但是,现在,考虑一下我们的互动:你不知道我不是一台智能计算机。比如,参考《星际迷航:下一代》中的Data先生?他肯定可以与人类区分开来,并且并非在任何时候都给出人类的反应,但大部分情况下都通过了测试。
现在,让我们考虑一下你遇到的人,他不是智能的,而完全是一个机制:没有“意识”,没有“灵魂”。(这种实体在文献中被称为“哲学僵尸”。)除了缺失的“意识”之外,这个人,或者说人的模拟体,在所有其他方面都表现得像一个人:受伤时表达痛苦,吃美味的食物时表现出快乐,对小猫表示喜爱
和小孩。(更正,因为我也想通过这个测试。)
你怎么能判断这个哲学僵尸不“智能”呢?
这里的重点是,你提出了很好的问题,但并不一定有被广泛接受的答案。我对图灵测试的个人看法是,这是一个很好的有效测试,因为正如图灵本人所说,如果分不出智能或有知觉的计算机和一个真正智能的实体之间的区别,那么你必须假设它们没有区别。
你可以阅读的其他内容:
- 阅读约翰·塞尔的“中文房间”
- 阅读道格拉斯·霍夫斯塔特的“哥德尔、埃舍尔、巴赫:集异璧之大成”