我正在开发一个基于Python的个人助理/问答系统,我梦想它能与未来的“Mac版Siri”相媲美。然而,目前它需要用户在一个无限循环的raw_input中输入文本,并每次处理这些文本。但如果这要对人们有用,它就不能只是终端窗口中的一个.py文件。目前,我在考虑使用Platypus将其制作成一个简单的.app。但由于Platypus的窗口应用样式没有文本输入,我将不包括任何GUI,而全部基于语音进行输入和输出。输出很简单,我可以将所有’print’行替换为来自”macspeech”的’speakString’。但输入部分会比较棘手。我只能找到在Windows上输入语音的库(pyspeech正是我需要的,但它是基于Windows的)。有没有人听说过类似于pyspeech的适用于Mac/通用的解决方案?
回答:
我会看看CMU的Sphinx4.0。
遗憾的是,它是用Java编写的。我认为它的识别效果比我Mac自带的要好。我正在学习Java/Python,所以在让两者通信方面遇到了困难。
你可以使用Appkit.NSSpeechRecognizer
与Mac语音引擎进行接口:
from Foundation import *
最后一种方法是使用谷歌语音搜索。但这需要将语音片段发送到“云端”。
这种方法最准确,但回复可能需要长达10秒的时间!