使用NSSpeechRecognizer或替代音频文件而不是麦克风输入?

问题描述:

是否可以将NSSpeechRecognizer与预先录制的音频文件(而不是直接麦克风输入)一起使用?使用NSSpeechRecognizer或替代音频文件而不是麦克风输入?

或者是否有Objective-C/Cocoa的其他语音到文本框架可用?

添加

而不是在正在运行的应用程序的外部设备(例如,iPhone)可被用于发送一个刚刚记录的音频流,以该桌面应用程序的计算机使用语音。然后,桌面Cocoa应用程序将使用分配的命令处理和执行应该执行的任何操作。

谢谢。

虽然“语音”伴侣指南的“识别语音”部分中的第一段似乎暗示可以使用其他输入,但我没有看到以编程方式切换输入的任何明显方式。不过,我认为这是通过系统偏好设置的。我猜它使用了那里选择的主要音频输入设备。

我怀疑,你正在寻找开放式的语音识别,而NSSpeechRecognizer不是。如果您想将任何预先录制的音频转换为文本(即制作录音文本),那么NSSpeechRecognizer完全不适合您,因为您必须为其提供一组“命令”来监听。

从理论上讲,你可以给它整个词典,但我不认为这会奏效,因为你通常必须给它清楚,明确的命令。如果你给了它一堆东西来分析(实时),它的性能会受到影响。

最好的办法就是看第三方开源解决方案。这里有几个通用的软件包(没有专门用于Cocoa/Objective-C),但是这提出了另一个问题:你在寻找什么样的认可?语音识别的两种主要形式('训练')对于不同的声音和录音环境来说更准确但不太灵活,而'开放'通常不太准确)。

如果你确切地表达了你正在努力完成的事情,这可能是最好的。

+0

谢谢你。看过NSSpeechRecognizer后,至少对于英文来说,使用语音来控制应用程序起到了很好的作用,但我正在考虑让iPhone应用程序记录声音。这些应用程序将声音发送到桌面Cocoa应用程序,该应用程序根据预先设置的命令处理和执行所需的任何操作。 – 2009-11-03 11:11:19