在一些利用我的项目开发的过程中,有时须要用到语音检测的性能,即辨认敲门声、门铃声、汽车喇叭声等性能,对于中小开发者来说,独自开发构建该能力,未免耗时耗力,而华为机器学习服务中的声音辨认服务SDK,只需简略集成,端侧就能实现这个性能。

一、 华为声音辨认服务简介:

声音辨认服务反对通过在线(实时录音)的模式检测声音事件,基于检测到的声音事件可能帮忙开发者进行后续指令动作。目前反对13个品种的声音事件,包含:笑声、婴儿或小孩哭声、打鼾声、喷嚏声、叫喊声、猫叫声、狗叫声、流水声(包含水龙头流水声、溪流声、海浪声)、汽车喇叭声、门铃声、敲门声、火灾报警声(包含火灾报警器警报声、烟雾报警器警报声)、警报声(包含消防车警报声、救护车警报声、警车警报声、防空警报声)。

二、集成筹备:

开发环境配置

1、须要在华为开发者联盟上创立利用:

此步骤具体能够详见下方的链接:

https://developer.huawei.com/...

2、关上机器学习服务:

具体开启步骤能够查看下方的链接:

https://developer.huawei.com/...

2、创立完利用之后,会主动生成agconnect-services.json文件, 须要手动将agconnect-services.json文件拷贝到利用级根目录下


3、配置HMS Core SDK的Maven仓地址。

对于Maven仓的配置能够查看下方的链接:

https://developer.huawei.com/...

4、集成声音辨认服务SDK

  1. 举荐应用Full SDK形式集成,在build.gradle文件中配置相应的sdk
// 引入声音辨认汇合包implementation 'com.huawei.hms:ml-speech-semantics-sounddect-sdk:2.1.0.300'implementation 'com.huawei.hms:ml-speech-semantics-sounddect-model:2.1.0.300'
  1. 依据理论状况申明AGC插件配置,有两种形式
apply plugin: 'com.android.application'apply plugin: 'com.huawei.agconnect'或plugins {    id 'com.android.application'    id 'com.huawei.agconnect'}
  1. 自动更新机器学习模型

增加如下语句到AndroidManifest.xml文件中,用户从华为利用市场装置您的利用后,将自动更新机器学习模型到设施:

<meta-data    android:name="com.huawei.hms.ml.DEPENDENCY"  android:value= "sounddect"/>
  1. 更具体的步骤能够通过下方的链接查看:

https://developer.huawei.com/...

三、利用开发编码阶段

1.获得 麦克风 权限, 如果没有麦克风的权限 会报12203的谬误

设置动态权限(必须)

<uses-permission android:name="android.permission.RECORD_AUDIO" />

动静权限获取(必须)

ActivityCompat.requestPermissions(

    this, new String[]{Manifest.permission.RECORD_AUDIO

}, 1);

2.创立MLSoundDector对象

private static final String TAG = "MLSoundDectorDemo";

//语音辨认的对象
private MLSoundDector mlSoundDector;

//创立MLSoundDector对象 并 设置回调办法
private void initMLSoundDector(){

mlSoundDector = MLSoundDector.createSoundDector();mlSoundDector.setSoundDectListener(listener);

}

  1. 声音辨认后果回调,用于获取检测后果,并将回调传入声音辨认实例。

//创立声音辨认后果回调,用于获取检测后果,并将回调传入声音辨认实例。
private MLSoundDectListener listener = new MLSoundDectListener() {

@Overridepublic void onSoundSuccessResult(Bundle result) {    //辨认胜利的解决逻辑,辨认后果为:0-12(对应MLSoundDectConstants.java中定义的以SOUND_EVENT_TYPE结尾命名的13种声音类型)。    int soundType = result.getInt(MLSoundDector.RESULTS_RECOGNIZED);    Log.d(TAG,"声音辨认胜利:"+soundType);}@Overridepublic void onSoundFailResult(int errCode) {    //辨认失败,可能没有授予麦克风权限(Manifest.permission.RECORD_AUDIO)等异常情况。    Log.d(TAG,"声音辨认失败:"+errCode);}

};

此代码中只是将声音辨认后果的int类型打印了进去,理论编码中,能够将int类型的声音辨认后果 转换为 可被用户辨认的类型。

声音辨认类型的定义:

<string-array name="sound_dect_voice_type">

<item>笑声</item><item>婴儿或小孩哭声</item><item>打鼾声</item><item>喷嚏声</item><item>叫喊声</item><item>猫叫声</item><item>狗叫声</item><item>流水声</item><item>汽车喇叭声</item><item>门铃声</item><item>敲门声</item><item>火灾报警声</item><item>警报声</item>

</string-array>

  1. 开启和敞开语音辨认

@Override
public void onClick(View v) {

switch (v.getId()){    case R.id.btn_start_detect:        if (mlSoundDector != null){            boolean isStarted = mlSoundDector.start(this); //context 是上下文            //isStared 等于true示意启动辨认胜利、isStared等于false示意启动辨认失败(起因可能是手机麦克风被零碎或其它三方利用占用)            if (isStarted){                Toast.makeText(this,"语音辨认开启胜利", Toast.LENGTH_SHORT).show();            }        }        break;    case R.id.btn_stop_detect:        if (mlSoundDector != null){            mlSoundDector.stop();        }        break;}

}

4.当页面敞开的时候,能够调用destroy()办法开释资源

@Override
protected void onDestroy() {

super.onDestroy();if (mlSoundDector != null){    mlSoundDector.destroy();}

}

四、运行测试

  1. 以敲门声为例,预计声音辨认类型的输入后果为10
  2. 点击开启语音辨认按钮、模仿敲门声 ,在AS控制台中能够失去如下日志, 阐明集成胜利。

五、其余

  1. 声音辨认服务属于华为机器学习服务中的一个很小的模块,华为机器学习服务包含6大模块,别离为:文本类、语音语言类、图像类、人脸人体类、自然语言解决类,自定义模型 。
  2. 这篇记录文档只是介绍了“语音语言类”这个模块中的“声音辨认服务”
  3. 如果有读者对华为机器学习服务其余模块感兴趣的话,能够查看华为提供的相干集成文档,地址如下:

https://developer.huawei.com/...

华为开发者联盟官网
获取开发领导文档
参加开发者探讨请到CSDN社区或者Reddit社区
下载demo和示例代码请到Github或者Gitee
解决集成问题请到Stack Overflow

原文链接:https://developer.huawei.com/...
原作者:胡椒