共计 3426 个字符,预计需要花费 9 分钟才能阅读完成。
在一些利用我的项目开发的过程中,有时须要用到语音检测的性能,即辨认敲门声、门铃声、汽车喇叭声等性能,对于中小开发者来说,独自开发构建该能力,未免耗时耗力,而华为机器学习服务中的声音辨认服务 SDK,只需简略集成,端侧就能实现这个性能。
一、华为声音辨认服务简介:
声音辨认服务反对通过在线(实时录音)的模式检测声音事件,基于检测到的声音事件可能帮忙开发者进行后续指令动作。目前反对 13 个品种的声音事件,包含:笑声、婴儿或小孩哭声、打鼾声、喷嚏声、叫喊声、猫叫声、狗叫声、流水声(包含水龙头流水声、溪流声、海浪声)、汽车喇叭声、门铃声、敲门声、火灾报警声(包含火灾报警器警报声、烟雾报警器警报声)、警报声(包含消防车警报声、救护车警报声、警车警报声、防空警报声)。
二、集成筹备:
开发环境配置
1、须要在华为开发者联盟上创立利用:
此步骤具体能够详见下方的链接:
https://developer.huawei.com/…
2、关上机器学习服务:
具体开启步骤能够查看下方的链接:
https://developer.huawei.com/…
2、创立完利用之后,会主动生成 agconnect-services.json 文件,须要手动将 agconnect-services.json 文件拷贝到利用级根目录下
3、配置 HMS Core SDK 的 Maven 仓地址。
对于 Maven 仓的配置能够查看下方的链接:
https://developer.huawei.com/…
4、集成声音辨认服务 SDK
- 举荐应用 Full SDK 形式集成,在 build.gradle 文件中配置相应的 sdk
// 引入声音辨认汇合包 | |
implementation 'com.huawei.hms:ml-speech-semantics-sounddect-sdk:2.1.0.300' | |
implementation 'com.huawei.hms:ml-speech-semantics-sounddect-model:2.1.0.300' |
- 依据理论状况申明 AGC 插件配置,有两种形式
apply plugin: 'com.android.application' | |
apply plugin: 'com.huawei.agconnect' | |
或 | |
plugins { id 'com.android.application' | |
id 'com.huawei.agconnect' | |
} |
- 自动更新机器学习模型
增加如下语句到 AndroidManifest.xml 文件中,用户从华为利用市场装置您的利用后,将自动更新机器学习模型到设施:
<meta-data | |
android:name="com.huawei.hms.ml.DEPENDENCY" | |
android:value= "sounddect"/> |
- 更具体的步骤能够通过下方的链接查看:
https://developer.huawei.com/…
三、利用开发编码阶段
1. 获得 麦克风 权限,如果没有麦克风的权限 会报 12203 的谬误
设置动态权限(必须)
< | |
uses-permission | |
android | |
:name | |
="android.permission.RECORD_AUDIO" | |
/> |
动静权限获取(必须)
ActivityCompat.requestPermissions(
this, new String[]{Manifest.permission.RECORD_AUDIO
}, 1);
2. 创立 MLSoundDector 对象
private static final String TAG = “MLSoundDectorDemo”;
// 语音辨认的对象
private MLSoundDector mlSoundDector;
// 创立 MLSoundDector 对象 并 设置回调办法
private void initMLSoundDector(){
mlSoundDector = MLSoundDector.createSoundDector(); | |
mlSoundDector.setSoundDectListener(listener); |
}
- 声音辨认后果回调,用于获取检测后果,并将回调传入声音辨认实例。
// 创立声音辨认后果回调,用于获取检测后果,并将回调传入声音辨认实例。
private MLSoundDectListener listener = new MLSoundDectListener() {
@Override | |
public void onSoundSuccessResult(Bundle result) { | |
// 辨认胜利的解决逻辑,辨认后果为:0-12(对应 MLSoundDectConstants.java 中定义的以 SOUND_EVENT_TYPE 结尾命名的 13 种声音类型)。int soundType = result.getInt(MLSoundDector.RESULTS_RECOGNIZED); | |
Log.d(TAG,"声音辨认胜利:"+soundType); | |
} | |
@Override | |
public void onSoundFailResult(int errCode) { | |
// 辨认失败,可能没有授予麦克风权限(Manifest.permission.RECORD_AUDIO)等异常情况。Log.d(TAG,"声音辨认失败:"+errCode); | |
} |
};
此代码中只是将声音辨认后果的 int 类型打印了进去,理论编码中,能够将 int 类型的声音辨认后果 转换为 可被用户辨认的类型。
声音辨认类型的定义:
<string-array name=”sound_dect_voice_type”>
<item> 笑声 </item> | |
<item> 婴儿或小孩哭声 </item> | |
<item> 打鼾声 </item> | |
<item> 喷嚏声 </item> | |
<item> 叫喊声 </item> | |
<item> 猫叫声 </item> | |
<item> 狗叫声 </item> | |
<item> 流水声 </item> | |
<item> 汽车喇叭声 </item> | |
<item> 门铃声 </item> | |
<item> 敲门声 </item> | |
<item> 火灾报警声 </item> | |
<item> 警报声 </item> |
</string-array>
- 开启和敞开语音辨认
@Override
public void onClick(View v) {
switch (v.getId()){ | |
case R.id.btn_start_detect: | |
if (mlSoundDector != null){boolean isStarted = mlSoundDector.start(this); //context 是上下文 | |
//isStared 等于 true 示意启动辨认胜利、isStared 等于 false 示意启动辨认失败(起因可能是手机麦克风被零碎或其它三方利用占用) | |
if (isStarted){Toast.makeText(this,"语音辨认开启胜利", Toast.LENGTH_SHORT).show();} | |
} | |
break; | |
case R.id.btn_stop_detect: | |
if (mlSoundDector != null){mlSoundDector.stop(); | |
} | |
break; | |
} |
}
4. 当页面敞开的时候,能够调用 destroy()办法开释资源
@Override
protected void onDestroy() {
super.onDestroy(); | |
if (mlSoundDector != null){mlSoundDector.destroy(); | |
} |
}
四、运行测试
- 以敲门声为例,预计声音辨认类型的输入后果为 10
- 点击开启语音辨认按钮、模仿敲门声,在 AS 控制台中能够失去如下日志,阐明集成胜利。
五、其余
- 声音辨认服务属于华为机器学习服务中的一个很小的模块,华为机器学习服务包含 6 大模块,别离为:文本类、语音语言类、图像类、人脸人体类、自然语言解决类,自定义模型。
- 这篇记录文档只是介绍了“语音语言类”这个模块中的“声音辨认服务”
- 如果有读者对华为机器学习服务其余模块感兴趣的话,能够查看华为提供的相干集成文档,地址如下:
https://developer.huawei.com/…
华为开发者联盟官网
获取开发领导文档
参加开发者探讨请到 CSDN 社区或者 Reddit 社区
下载 demo 和示例代码请到 Github 或者 Gitee
解决集成问题请到 Stack Overflow
原文链接:https://developer.huawei.com/…
原作者:胡椒