转:基于科大讯飞语音API语音识别开发详解
2020-12-13 03:04
标签:android class code java http tar 最近项目需要用到android语音识别,立马就想到科大讯飞,结合官方实例及阅读API文档,初步的完成了Android语音识别,下面是实现过程实录。 1、你需要android手机应用开发基础 2、科大讯飞语音识别SDK android版 3、科大讯飞语音识别开发API文档 4、android手机 关于科大讯飞SDK及API文档,请到科大语音官网下载:http://open.voicecloud.cn/ 当然SDK和API有多个版本可选,按照你的需要下载,其次,下载需要填写资料申请注册,申请通过或可获得Appid 函数原型 Public RecognizerDialog(Context context,String params) 其中Context表示当前上下文环境,传this即可 Params有参数详见API文档 主要用到SpeechUser(com.iflytek.speech包下)类下的getUser().login()函数 其中getUser()表示获取用户对象,可以实现用户登录,注销等操作 Login函数原型 Public boolean login(Context context,String usr,String pwd,String 参数详见API文档 通过abnf文件并读取该文件,实现指定的语言识别语法,比如为了识别并计算国内两个城市之间的距离,abnf文件的内容可以是如下 Abnf文件的读取参考后面的具体开发实例 通过RecognizerDialog下的setEngine()方法设置参数 函数原型 public void setEngine(String engine,String params,String grammar) 详细的参数请参考API文档 需要实现RecognizerDialogListener接口,其中有两个方法需要重写,分别是 1)public void onResults(ArrayList 其中result是RecognizerResult对象的集合,RecognizerResult的属性有 String text 识别文本 Int confidence 识别可信度 2)public void onEnd(SpeechError error) 自己将文本进行处理。 和普通的android项目一样,只是需要加入科大讯飞语言SDK包,主要包括 Msc.jar及libmsc.so动态库文件,项目lib截图 这里只进行简单的布局,只设置一个按钮作为语言识别按钮及一个文本组件用作显示识别结果,布局文件如下 这里只是简答的识别所说的城市名,其中指定了“北京”、“上海”、“广州”、“深圳”、“厦门” 代码如下,请参考上面的语言识别流程 一、准备工作
二、语音识别流程
1、创建识别控件
2、用Appid登录到科大讯飞服务器(自动连接,需要联网)
3、读取语言识别语法
4、设置识别参数及识别监听器
5、识别结果回调
6、识别结果处理(自行处理)
三、详细开发过程
1、新建Android项目
2、布局
3、识别语法文件
4、MainActivity程序
上一篇:python之scrapy框架
下一篇:在ASP.NET中跨页面实现多选