信息暴发时代,有效率有品质地整顿视频、音频、文字等信息变得尤为重要。会议、讲座、采访、客服电话等场景均须要造成残缺的文字记录资料,音视频文件也要配有字幕。语音转文字的智能化,让信息录入即时高效。

在直播类、会议类、笔记类的利用中都具备实时语音转写性能。例如,在音视频会议中,能够将发言内容可视化,即时生成会议纪要,不便记录、批改,进步会议效率;在直播类利用中,能够辨认主播所说的话,达到“边说边出文字”的成果,晋升用户观看体验,营造更好的直播气氛;在笔记类利用中,反对重点内容随讲随记,捕获你的每一个想法。

HMS Core机器学习服务提供实时语音转写能力,让开发者在利用中构建长语音转文字性能。能够将会议记录、笔记、总结、音视频直播内容等音频流实时转换为文字流数据后果,实现即时对语音内容的辨认,展示对应文字内容。

最高可反对5小时的实时长语音输入转换为文本,不仅可能输入标点符号,同时能够生成带有工夫戳的文本信息。不论你是中文普通话、英语、法语,甚至中英文混说都可能很好辨认,满足不同的场景须要。

实时语音转写部署状况

成果展现

在成果展现里咱们能够看到通过实时语音转写性能转成的文字在完结后能够即刻进行编辑、复制、批改等,非常不便。

注意事项

• 目前法语实时语音转写服务仅反对华为手机和光荣手机应用,中英文实时语音转写服务反对所有品牌手机。

• 实时语音转写服务通过拜访云侧接口实现辨认服务,调测和应用时需保障设施可失常拜访互联网。

开发步骤

1 .在AppGallery Connect中配置相干信息。

在开发利用前,须要在AppGallery Connect中配置相干信息。

具体开发筹备能够参考文档

2 .配置HMS Core SDK的Maven仓地址。

2.1 关上Android Studio我的项目级“build.gradle”文件。

2.2 增加HUAWEI agcp插件以及Maven代码库。

在allprojects->repositories外面配置HMS Core SDK的Maven仓地址。

allprojects {    repositories {        google()        jcenter()        maven {url 'https://developer.huawei.com/repo/'}    } }在buildscript->repositories外面配置HMS Core SDK的Maven仓地址。buildscript {    repositories {        google()        jcenter()        maven {url 'https://developer.huawei.com/repo/'}    } }

在buildscript ->dependencies外面减少配置。

buildscript{    dependencies {         classpath 'com.huawei.agconnect:agcp:1.3.1.300'    } }

3 .创立语音识别器,并设置配置。

MLSpeechRealTimeTranscriptionConfig config = new MLSpeechRealTimeTranscriptionConfig.Factory()    // 设置语言,目前反对中文、英语、法语转写。    .setLanguage(MLSpeechRealTimeTranscriptionConstants.LAN_ZH_CN)    // 设置标点。    .enablePunctuation(true)    // 设置句子的偏移。    .enableSentenceTimeOffset(true)    // 设置词的偏移。    .enableWordTimeOffset(true)    .create();MLSpeechRealTimeTranscription mSpeechRecognizer = MLSpeechRealTimeTranscription.getInstance();

4. 创立语音辨认后果监听器回调。

// 回调实现MLSpeechRealTimeTranscriptionListener接口,实现接口中的办法。Protected class SpeechRecognitionListener implements MLSpeechRealTimeTranscriptionListener{    @Override    public void onStartListening() {        // 录音器开始接管声音。    }     @Override    public void onStartingOfSpeech() {        // 用户开始讲话,即语音识别器检测到用户开始讲话。    }     @Override    public void onVoiceDataReceived(byte[] data, float energy, Bundle bundle) {        // 返回给用户原始的PCM音频流和音频能量,该接口并非运行在主线程中,返回后果须要在子线程中解决。   }     @Override    public void onRecognizingResults(Bundle partialResults) {        // 从MLSpeechRealTimeTranscription接管到继续语音辨认的文本。    }     @Override    public void onError(int error, String errorMessage) {        // 辨认产生谬误后调用该接口。    }     @Override    public void onState(int state,Bundle params) {        // 告诉利用状态产生扭转。    }}

5. 绑定语音识别器。

mSpeechRecognizer.setRealTimeTranscriptionListener(new SpeechRecognitionListener());

6 .调用startRecognizing启动语音辨认。

mSpeechRecognizer.startRecognizing(config);

7. 辨认实现后,完结辨认并开释资源。

if (mSpeechRecognizer!= null) {    mSpeechRecognizer.destroy();}

理解更多详情>>
拜访机器学习服务联盟官网
获取机器学习服务开发领导文档
拜访华为开发者联盟官网
获取开发领导文档
华为挪动服务开源仓库地址:GitHub、Gitee

关注咱们,第一工夫理解 HMS Core 最新技术资讯~