关于人工智能:零代码技能平台技术实践探索

47次阅读

共计 6374 个字符,预计需要花费 16 分钟才能阅读完成。

导读: 明天为大家介绍一下 OPPO 小布助手在对话零碎技能平台建设中的落地实际,次要分为四个方面:

  • 业务领域建模,建设通用能力地图
  • 语义理解能力初探,多类型的场景反对
  • 多模式易扩大流程化的对话治理
  • 端到端一站式离线平台,看得见的技能生命周期

业务领域建模,建设通用能力地图

1、实现一个智能助手须要什么

在用户讲了一句话之后,首先咱们要做一次语音辨认,辨认用户真正的 query 是什么,接下来咱们会进行语义了解,辨认用户的用意和槽位等等。当咱们辨认了用户的用意之后,咱们会依据用户的上下文去做整个对话的治理,以及明确对话的一些策略。在这个过程中,咱们会依赖一些常识来进行整个对话策略的治理。在咱们决定要执行什么动作之后,再去生成整个对话。

小布助手是 OPPO 智能手机和 IoT 设施内置的智能助手,它是一个多类型交融的对话零碎。

对于工作型的对话,小布助手会去执行一些零碎的利用,比方关上 APP、听歌等等;对于常识问答型的对话,小布助手将返回用户所查问的信息,比方问北京在哪里,明天星期几等;最初一个是聊天对话型的对话,这一类型次要和闲聊相干。

整个对话零碎都是从用户的输出来进行语义了解,最初生成一个卡片去回复用户的信息。当然,咱们还有一些不同的入口,能够展现不同的回复。

2、什么是技能平台

咱们明天所介绍的技能平台是 OPPO 小布助手搭建的低代码对话系统管理平台。咱们心愿可能以零代码或者低代码的形式实现创立技能、配置技能和训练技能,最初进行一些技能的主动上线,再加上技能自动化的迭代,保障整个技能的生命周期都是零代码或者低代码的状态。整个平台须要设计得绝对通用,因为会有不同的对话逻辑去复用。扩展性方面,咱们须要去撑持多种业务场景,后面提到小布助手是一种多场景的对话零碎。除此之外,整个对话平台不光是外部应用,还须要对外部凋谢,咱们要保障整个平台的安全性和稳定性,不对小布助手的支流业务造成影响。

基于前文所述的场景和须要建设的业务能力,咱们定义了整个能力地图,在线平台提供数据编辑的能力,离线平台提供模型训练、模型评估的能力,语义了解提供用意了解、槽位解析和通用的一些文本处理,以及对话治理提供反对不同的对话模式、生成对话策略、对话执行的能力。

接下来,我将开展阐明咱们是怎么去建设每一个能力的。

语义理解能力初探,多类型的场景反对

1、通用化 NLU 流程

语义了解的能力,实质上是咱们怎么以各种形式辨认用户想做什么事。在这里,咱们定义了一些通用化 NLU 流程,包含如下三种:

  • 基于模型,咱们能够将用户的语料主动训练成一个模型,再上传到技能;
  • 基于匹配,当用户的语料非常少的时候,咱们会举荐他用这种匹配计划去实现一些高精准的匹配;
  • 基于常识,对于一些问答类的语料,咱们会举荐他用第三种,也就是基于常识的 NLU 辨认。

整个过程分为:预处理,前解决,用意辨认和槽位提取。

首先是预处理,次要蕴含文本纠错、文本归一化和 query 改写。归一化是比方特殊字符的解决、大小写转换等,有时候语音转换的 query 不合乎用户上下文,咱们还须要改写 query。

之后是前解决,对于模型,咱们须要做数值化,通过数值化进行预测,所以咱们会做字向量或词向量的数值化。同时,咱们也会嵌入定义好的一些常识,将常识嵌入到模型当中,做一次数值的解决。
前解决实现后,咱们会将数值向量传到模型中去做预测。如果不必模型,咱们会反对用户编辑一些规定,通过规定引擎实现精准匹配。对于这种匹配,咱们还反对向量检索的形式,可能从语义的层面去做一些检索。

当咱们辨认到用户的用意之后,就须要去做槽位的解决。咱们定义了几种槽位,一种是基于词典的槽位提取,咱们有自研的 DAG+DP 的词典提取的办法。同时,咱们还定义了几十种通用的槽位,不便内部用户进行惯例的槽位提取,不须要提供他本人的词典,比如说提取城市、数字、人名等通用的槽位,只有抉择就能够了。咱们还会接入一些三方,如果他本人有 NLU 能力,咱们也能够让他接入他本人的三方槽位。局部技能有模型训练的能力,咱们也反对他去接入一些模型槽位。

2、基于模型的用意辨认

基于模型的用意辨认的过程分成为四个步骤。

首先是定一些标准化的技能数据,包含用意配置,比方定义技能可能有三个用意,每个用意会有一些什么样的槽位,对于每个用意它须要去提供标准化的语料,能够提供一些正语料,也能够提供一些负语料,还能够去配置它的槽位词典,这里次要是用户自定义的词典。

这些信息会放到离线训练的零碎当中,离线训练零碎会做数据加强。对于配置的负语料会做负语料的加强,提取的槽位也会做槽位的加强。如果配置了规定也会进行句式的加强,还会做一些泛化。数据加强之后进行预处理,次要是实体辨认、常识嵌入。在根本的数据处理完之后,就会把它放到模型里。这里定义了几类通用的模型去做整个用意辨认的训练。训练完之后再通过常识蒸馏等等生成一个真正能够进行推理的模型。对于一些小的模型,咱们会间接做 local 的 inference,效率更好。而对于一些大的模型,咱们会用 TF serving 的形式进行预测。

生成模型之后,咱们会集成流程去做标准化 NLU,也就是咱们后面提到的预处理、前解决、用意辨认和槽位提取。

3、基于检索的用意辨认

对于检索的用意辨认,同样也会有它的用意辨认、配置语料以及槽位词典,但语料相对来说个数不须要很多,更多的是通过它的槽位以及句式去生成检索。所以尽管咱们也会做预处理,但预处理的内容就不太一样,咱们会进行归一化,以及形容词和前后缀的根底的解决。绝对比拟重的是槽位的解决,咱们会将词典槽位、通用槽位以及内部槽位一并集成进来去做槽位断定。最初再通过咱们本人的预训练模型、语义向量模型去做一些运算,失去语义向量表征。为了保障整个检索的成果,咱们不光会通过语义向量去做检索,还会把文本做归一化解决,生成进行过槽位加强的文本,计算在同义词和分词进行了加强解决后的文本,整体放到检索引擎上,这样在检索引擎上,咱们就会有四维的特色。

咱们有两个比拟重的检索引擎,首先是基于语义向量的检索引擎,另外一个就是文本检索引擎,也就是说咱们会从两个维度去检索整个用意。检索用意之后,咱们会集成自定义的 rank 流程,去抉择基于哪个表征去抉择后果。这样生成用意之后,同样也是集成到标准化 NLU 流程外面去。

4、基于问答的用意辨认

基于问答的用意辨认与后面有所区别的是,它不会有很多的用意,可能是一类用意,但这一类用意当中会有十分多的问答。问答包含规范问题和类似问题,咱们会让用户去把他的问题以及他的回复都配置进来,而后去做相似基于检索的一个流程,去进行归一化形容词以及槽位解决。但在这里,咱们还会重点关注同义词的解决,因为很多问题是比拟类似的。同义词解决完后,调用预训练模型去做通用的模型运算失去语义向量表征。而后同样的做一些文本处理,再放到检索引擎当中去,最初集成到标准化的 NLU 流程。这里的 NLU 流程只会失去问题,回复则会通过前面的对话治理模块去生成。

5、组件化外围性能,算子化编排服务

后面讲到咱们定义了很多通用化的 NLU 流程,为了更好地复用这些 NLU 流程,并进行更多的 NLU 扩大,咱们对于 NLU 业务的外围性能进行了去组件化,通过算子化的形式编排整个服务。

底层组件服务。文本引擎蕴含后面提到的预处理当中的归一化、前后缀解决、形容词解决等。检索引擎也就是后面提到的向量检索和文本检索。模型引擎蕴含 local inference 和 serving inference。规定包含基于正则的规定等等。

通用业务算子。比方槽位生成算子,做词典的槽位,通用槽位算子,也会有一些预处理的槽位算子。咱们还会定义一些通用的多分类模型,以及常识嵌入的业务算子等等。咱们定义了几十个算子作为通用算子。

下层是编排起来一个基于 DAG 图的流程,定义每一个算子在不同的状态,应该怎么流转到下一个模块,再执行下一个业务算子的业务逻辑,最终实现咱们的 NLU 流程。

6、大规模数据文本处理服务

咱们面临的一个比拟大的挑战是在这种文本处理服务上会有很多的数据,一个技能可能须要几百万的词典,当咱们的技能越来越宏大,文本处理服务很难扛起所有的技能。

因而,咱们对文本处理的服务进行了一些畛域的拆分,将不同的性能拆开,去反对槽位、词、句的解决。每一个解决又集成了相应的一些算法来定义畛域。下层能够反对预处理、分词、提槽以及归一化等性能。为了去应答这种大批量数据的解决,咱们借鉴了 redis 的分槽思维,将每个技能进行了一次 hash 来计算它的槽,而后基于槽定义分组。当咱们的整个技能有一些收缩的时候,就能够进行主动扩容,这个时候咱们会去从新算它的槽。因为咱们是基于哈希的形式,前两个槽还是留在自身的 node 上,新裁减的 node 咱们会从新计算,分片到不同的节点上。

7、向量检索

向量检索集成了一个基于图的集群化检索引擎。因为要反对很多的技能,每个技能面临的状况不一样,有些技能语料比拟多,有些语料比拟少。对于这种场景咱们调研过不同的向量检索引擎,最终咱们抉择基于图的形式去做语义向量的检索。这种基于图的形式有开源的实现,能够不必在单机内存中去做,咱们能很不便地把整个语义向量的检索和咱们的业务逻辑拆开,将它独立进去。

咱们把图检索的 HNSW 算法复写成了 ES 插件,ES 就能够很好地去做集群化。不光是语义向量检索,咱们的文本检索也能够很好地去复用 ES 自身的一些文本检索的能力。咱们能够通过 ES 一次实现业务流程,所以咱们抉择了用 ES 去做检索引擎。

多模式易扩大流程化的对话治理

后面讲了咱们在语义模块做的一些工作,接下来讲咱们怎么做对话治理,也就是怎么去执行动作。

1、对话治理总览

小布助手的对话治理分成三大部分。

首先是对话策略局部。小布助手外面有很多技能,既蕴含平台的技能,也有非平台的技能。咱们首先要将对话策略和其余非平台的技能进行汇总,而后在对立对话策略的不同层级外面影响整个对话的后果。下一步是对话的执行,同样也有平台对话执行和非平台对话执行,在中控系统中会对这些执行去做一次整体的收集。收集之后进行后果的优选,有不同的优选策略,也会用到咱们平台自定义的优选策略,最终为用户带来后果展现。

基于以上三大部分,咱们定义了平台的一些对话治理。首先咱们定义了一些模板策略,包含前置查看、槽位解决和用意解决。比方有一些多轮的状况,能够去做用意的继承、对话的放弃或用意的跳转。有时候模板设计不能很好地满足用户的需要,咱们就定义了一些可编辑对话流和在线编程的形式,用户能够本人批改对话策略,从而影响整个零碎的对话策略,进步本人的优先级。在对话执行地局部,咱们定义了一些条件判断和话术模板,去做资源的生存和协定的转换。

2、对立对话协定,自定义对话状态管制

在对话协定这部分,咱们定义了一些对话状态的放弃。咱们整体定义了通用的对话信息,即可能传递上下文的用意和用户的历史信息,比方用户的兴趣爱好是什么,以及每一轮执行过的指令。通过通用对话信息的传递,咱们能够在对话策略的地位辨别用意确认状态,拿到这些状态后再做精细化 rank 决策。

通过这种模式咱们能够实现弱多轮的成果。弱多轮次要是通过上下文信息放弃和传递来达到的。而填槽式的强多轮,咱们会填充槽位以达到跳转。在沉迷式强多轮,咱们会做对话放弃和用意继承。

3、定制化对话反对

对于可编辑的对话流,咱们基于状态机的形式实现了流程化的对话设计。用户能够在界面上编辑每一个中央输出的语音是什么,当满足了用户输出的条件或语音输入的条件时,判断是否要进行切换,从而实现动静的对话流。比方我在节点 1 定义当用户讲到了成都槽位的时候,须要跳到下一个节点,如果没有讲到,则要跳到另外一个节点,这个节点的对话也能够进行反对,当用户执行完动作后是否要保留这个状态,帮忙用户很好地定义多轮状态应该怎么扭转,去实现不同的强多轮弱多轮的逻辑,让用户更灵便地去实现整体的对话流。这里的每一个动作和每一个条件,咱们定义了不同的扩展性的条件判断,让用户能够去判断各个维度的条件。

在线编程模式是通过函数式的编程化的形式去最小化接入老本。首先咱们定义了一个通用的 DST 对话状态转移接口,让用户能够在拿到本人的 NLU 信息后去做自定义。除此之外,咱们还反对 python 代码嵌入到咱们的 Java 代码当中,实现自定义接口。

4、通用对话协定

平台反对不同类型的对话回复,比方文字、音频、图文、快利用等。不同的回复类型协定比较复杂。如果咱们通过三方接入,三方的协定也会比较复杂。

为了应答不同协定的转换,咱们定义了模板的语法树,能够将内容填入到咱们的模板里,最终生成一个咱们本人的客户端协定。通过这样的形式,咱们能够很好地应答协定过多以及三方接入协定比较复杂的状况,让整体治理模板能够管制,同时咱们也能够在这些节点下来做一些转换。

端到端一站式离线平台,看得见的技能生命周期

对于小布助手,咱们还做了一件事,就是让整体的技能以一种全生命周期的形式运行起来,让咱们的平台用户可能一直地去优化它的技能。

1、跨环境数据同步

咱们定义了几个环境,首先是当用户编辑了数据之后,可能让用户在本人的测试环境进行一些根底的测试。根底测试实现后,咱们会把数据推送到评测环境,将用户的数据和小布外部的各种数据进行交融,让它端到端地跑起来。跑起来之后,咱们会晓得在平台上配置的技能是否有影响咱们外部开发的一些技能,如果受到了影响,那么是对回复有影响,还是对语义有影响?咱们是否应该去提醒开发者批改语料,还是咱们的策略有问题?这些都是在评测环境中进行。

当评测环境验证通过后,咱们会推送到外部的测试环境,由专门的测试验证技能在各个端上的体现。当整体数据在测试环境验证 OK 之后,咱们才会将正式的技能推送到线上环境。这样可能保障整体用户在平台上配置的数据是可控的,而且是一个真正可能用起来的技能。

整体上,依赖于咱们自定义的数据散发服务。用户在线上平台编辑后,咱们把它存到根底数据服务外面,根底数据服务再去通过调用数据散发把数据推送到对象云存储中。数据散发服务通过 API 网关告诉线下的一些数据散发服务,去拉取对应的数据。当在线服务收到了这个数据的告诉之后,咱们会从对象云存储把线上的数据拉取起来,进行加载。这些流程得益于咱们在 NLU、用意辨认和对话治理的局部定义了十分多的标准化流程,所有业务流程都以数据化的形式进行表白。这样咱们就可能很好地推送一份数据,把整体的 NLU 和 DM 很好地运行起来,在不同的环境去做一些验证。

2、线上数据挖掘

验证好后,技能上线。上线后咱们还心愿可能去做一些持续性的优化。因为很多技能上线后,咱们并不知道它对于线上实在的用户样本是否产生了影响,所以咱们还定义了一个线上数据挖掘的继续优化过程。

如果用户须要去开启咱们数据挖掘的一些性能,开启后咱们会对线上的数据进行筛选,失去一些疑似未召回或者疑似误召回的语料。下一步咱们会用到咱们本人的预训练模型,去做粗召回。之后咱们再调用精排小模型去做一些预测。通过预测,咱们可能失去疑似的 badcase。很多时候咱们还是须要通过标注去辨认是不是一个无效的 badcase。如果它是一个无效的 badcase,咱们会去标注它是正样本还是负样本。通过这种标注,咱们会主动提供这些正样本和负样本的数据让用户抉择,是否要把它退出到语料当中。如果可能退出到语料当中,咱们会帮忙用户去优化整个数据模型和语料。也就是说,如果有一些用户配置的数据比拟少,咱们也能够通过这样的形式进一步丰盛他的语料。如果他在不同的用意下配置语料有问题,咱们也能够通过这种形式纠正他的语料。同时,因为咱们通过人工标注的形式失去了一些正样本和负样本,咱们能够在流程中去做整个模型的继续优化,继续地优化咱们的技能。通过这样的形式,咱们可能达到整个流程端到端的体现,使小布技能平台实现更残缺的技能。

正文完
 0