关于移动端:端智能在大众点评搜索重排序的应用实践

40次阅读

共计 10748 个字符,预计需要花费 27 分钟才能阅读完成。

端智能,是指在挪动端设施运行人工智能(AI)利用的技术。本文次要讲述公众点评搜寻场景下,在端侧部署大规模深度学习模型进行搜寻重排序工作的实际计划,包含端上特色工程、模型迭代思路,以及具体部署优化的过程,心愿能对从事相干畛域开发的同学有所帮忙或者启发。

1 引言

随着大数据、人工智能等信息技术的疾速倒退,云计算曾经无奈满足特定场景对数据隐衷、高实时性的要求。借鉴边缘计算的思维,在终端部署 AI 能力逐步步入公众的视线,“端智能”的概念应运而生。相比于传统的云计算,在智能手机等终端部署运行 AI 模块有以下几个方面的劣势:首先,数据本地化能够缓解云存储的压力,也有利于用户数据的隐衷爱护;其次,计算的本地化能够缓解云计算过载问题;最初,端智能缩小了和云端零碎的申请通信老本,能够更好地利用用户在端上的交互,提供更加实时、个性化的服务体验。

在端智能的利用方面,国内外各大科技公司曾经走在了前列。Google 提出了 Recommendation Android App 的概念,依据用户趣味进行内容举荐;Apple 的 Face ID 辨认、Siri 智能助手等一些咱们熟知的产品,也都是端智能典型的利用代表。阿里巴巴、快手、字节跳动等企业也在各自的利用场景上进行了端智能的落地,并推出相应的端上模型推理框架。比方,快手上线的短视频特效拍摄、智能识物等性能。另外,在搜寻举荐场景下也有一些实际,其中,手机淘宝“猜你喜爱”在端上部署了智能举荐零碎,获得较为显著收益(EdgeRec[1],双十一 IPV 晋升 10%+,GMV 晋升 5%+)。快手上下滑举荐场景也利用了端上重排的计划,并获得 App 时长晋升了 1%+ 的成果。

搜寻是公众点评 App 连贯用户与商家的重要渠道,越来越多的用户在不同场景下都会通过搜寻来获取本人想要的服务。了解用户的搜寻用意,将用户最想要后果排在靠前的地位,是搜索引擎最外围的步骤。为了进一步优化搜寻个性化的排序能力,晋升用户体验,搜寻技术核心进行了在端上部署深度个性化模型的摸索实际。本文次要介绍了端智能重排在公众点评 App 上的实践经验,文章次要分为以下三个局部:第一局部次要剖析端智能重排要解决的问题和整体流程;第二局部会介绍端上重排序算法局部的摸索实际过程;第三局部将介绍端上重排零碎的架构设计以及部署优化,最初是总结与瞻望。

2 排序零碎进阶:为什么须要端上重排

2.1 云端排序痛点

咱们以一次残缺的搜寻行为,来看一下整个前后端执行的过程。如图 1 所示,用户在手机端搜寻入口发动检索申请后,触发云端服务器执行,包含查问了解、多路召回、模型排序与展现信息合并等解决,最终返回给客户端进行渲染出现给用户。

因为整个零碎的每秒查问数(QPS)的限度,以及前后端申请通信、传输包体影响,通常会采纳分页申请机制。这种客户端分页申请,云端服务检索排序返回给用户最终展现列表的 Client-Server 架构,对于公众点评 LBS 场景、类举荐的搜寻产品来说,存在以下两个问题:

列表后果排序更新提早

分页申请限度会导致排序后果的更新不及时。在下一个分页申请之前,用户的任何行为都无奈对当前页内的搜寻排序后果产生任何影响。以公众点评搜寻后果页为例,一次申请返回 25 个后果到客户端,每屏展现约 3~4 个,那么用户须要滑动 6~8 屏左右,能力触发新的分页申请到云端获取下一页后果(以美食频道列表页为例,有 20% 以上的搜寻浏览超过一页后果)。云端的排序零碎无奈及时感知用户的趣味变动,并调整已下发到客户端的后果程序。

实时反馈信号感知提早

一般来说,实时反馈信号会通过 Storm、Flink 等流解决平台,将日志流以 Mini-batch 的形式计算后,存入 KV 特色数据库供搜寻零碎模型应用。这种形式往往会有分钟级的特色提早,因为须要对反馈数据进行解析解决,当波及到更多、更简单的反馈数据时,这种提早体现会更加显著。而实时反馈反映着用户的实时偏好,对于搜寻排序的优化有着非常重要的意义。

2.2 端智能重排流程和劣势

为了解决分页后果排序调整决策提早,更及时地建模用户实时的趣味偏好变动,咱们在端上建设了重排序的零碎架构,使得客户端具备深度模型推理能力,该计划具备以下几个方面的劣势:

  • 反对页内重排,对用户反馈作出实时决策:不再受限于云端的分页申请更新机制,具备进行本地重排、智能刷新等实时决策的性能。
  • 无延时感知用户实时偏好:无需通过云端的计算平台解决,不存在反馈信号感知提早问题。
  • 更好的爱护用户隐衷:大数据时代数据隐衷问题越来越受到用户的关注,公众点评 App 也在积极响应监管部门在个人信息爱护方面的执行条例,降级个人隐私爱护性能,在端上排序能够做到相干数据寄存在客户端,更好地爱护用户的隐衷。

端智能重排在公众点评搜寻和美食频道页上线后,均获得显著效果,其中搜寻流量点击率晋升了 25BP(基点),美食频道页点击率晋升了 43BP,Query 均匀点击数晋升 0.29%。

3 端上重排序算法摸索与实际

重排序工作在搜寻、举荐畛域已有不少钻研工作和落地实际,外围解决的问题是从 N 个后果候选中,生成 Top-K 个后果的排列。具体到端上的重排序场景,咱们要做的次要工作是:依据用户对后面排序后果的反馈行为,生成候选商户上下文的排列,使得列表页整体的搜寻点击率达到最优。上面将具体介绍,针对端上重排序场景,咱们在特色工程、实时反馈序列建模以及模型构造做的一些摸索与实际。

3.1 特色工程

在端上建设特色工程的思路和云端搜寻排序零碎基本一致,User/Item/Query/Contextual 各个维度的根底、穿插特色能够疾速复用到端上,当然须要思考传输和存储优化,以及端、云特色零碎的一致性,做到端云“无感”的开发部署,这部分内容会在前面架构 & 部署优化章节具体介绍。除此以外,还有一部分端上特色的用户实时反馈信号,包含更多细粒度的交互行为等,这些特色也是前文所剖析的端上实时反馈决策劣势的要害信号。

具体来说,在端上建设的重排模型特色体系如表 1 所示,次要包含以下几个方面:

  1. 根底特色,典型的用户 / 商户 /Query/Context 侧特色,以及双侧的穿插特色等。
  2. 偏置特色,次要包含后端返回的排序地位,终端设备上存在的一些大小等视觉上的偏置。
  3. 用户的实时反馈特色,这部分是整个端上重排特色体系的重要组成部分,包含:

    • 用户间接的交互行为序列(曝光、点击等)。
    • 行为关联特色,比方点击进入商户详情页内的停留、交互等相干行为。

3.2 用户反馈行为序列建模

对于用户反馈序列的建模,业界有十分多的算法计划,比方咱们所熟知的 DIN(Deep Interest Network[10])、DIEN(Deep Interest Evolved Network[11])以及基于 Transformer 的 BST(Behavior Sequence Transformer[12])等等。端上排序场景里,对于用户反馈行为序列的利用会很大水平影响到算法的成果。因而,咱们也在这个方面进行了一些摸索。

引入深度反馈网络

在云端的精排模型优化工作中,咱们个别只思考用户和商户显式的“正反馈”行为(包含点击、下单等),隐式的曝光未点击“负反馈”信号则少有引入,因为长短期的历史行为中,此类曝光未点击行为十分多,相比于点击信号乐音很大。对于端上来说,这种实时的曝光“负反馈”信号也很重要。比方,对于同一品牌的某类商户实时屡次曝光后,该品牌商户的点击率会呈显著的降落趋势。

因为实时反馈序列中曝光未点击的隐式负反馈信号占了较大的比例,作为一个整体序列进行建模,对稠密的正反馈信号存在较大的主导影响。阿里巴巴在淘宝首页信息流举荐场景下也提出了一种基于反抗的形式,来开掘曝光、点击行为序列之间的分割,从而寻找以后曝光序列当中有哪些行为是真正的负反馈,而哪些行为与点击有更相近的关系。微信团队提出了深度反馈网络 DFN[4],通过引入正负反馈信号的交互作用关系,进行肯定水平的去噪、纠偏。

首先,基于 DFN 的优化思路,咱们对反馈序列进行拆分,生成正负反馈序列,利用 Transformer 进行正负反馈信号的 Cross Attention 交互作用。具体来说,以曝光序列和点击序列为例,曝光行为序列作为 Query,点击行为序列作为 Key 和 Value,失去曝光行为序列对点击行为序列的 Attention 后果。同理,再调换一下失去点击行为序列对曝光行为序列的 Attention 后果。思考到正反馈信号的稠密性,当仅有负反馈序列时,会计算失去一些均匀的无关乐音权重。因而,咱们参考 [7] 的做法,在负反馈序列中引入全零的向量,来打消这种潜在的乐音。具体模型构造如下图 4 所示:

晋升负反馈信号的信噪比

初版模型在美食频道列表页上线后,相比 Base 获得 0.1% 的稳固晋升,然而和离线的收益比照还有一些差距,不太合乎咱们的预期。通过融化试验剖析发现,次要起因是负反馈信号中存在大量乐音,而乐音产生的本源是因为局部曝光商户的点击行为可能产生在特色收集的时刻之后。因而,为了进步负反馈信号的信噪比,咱们对于负反馈信号的曝光工夫进行了限度,长时间曝光但未点击的商户更有可能是实在负反馈信号。如下图 5 所示,更长的停留能够关联到更稳固的反馈信号,线上成果更优。

多视角的正负反馈序列穿插建模

在初版正负反馈序列模型的根底上持续迭代,咱们关注到在调整 Transformer 中 Multi-Head 的数目时,并没有预期的增量收益,相比仅应用一个 Head 指标无显著变动。通过剖析,咱们狐疑这种通过随机初始化的生成的多头表征,很大水平上只是单纯参数量上的裁减。

另外,在公众点评搜寻场景下,同 Query 下商户列表整体的相关度比拟高,尤其对页内的后果来说,同质度更高。差异性次要体现在比方价格、间隔、环境、口味等细粒度的表征下面。因而,咱们设计了一种多视角的正负反馈序列穿插建模形式 Multi-View FeedBack Attention Network (MVFAN),来强化曝光、点击行为在这些感知度更高的维度上的交互作用。具体网络结构如下图 6 所示:

用户行为序列按反馈类型切分为点击正反馈和曝光未点负反馈,序列除了 shopid 自身,还补充了更多泛化的属性信息(包含类目、价格等),以及上下文相干的特色(比方经纬度、间隔)。这些序列 Embedding 后叠加,造成最终正负反馈序列的表征。接下来会应用多级的 Transformer 进行编码,输出多个维度的信号去解码,激活用户在不同商户维度上的偏好:

  1. 应用待排商户 ID 作为 Q,对实时反馈行为进行激活,表白用户隐形的多样性趣味。
  2. 应用商户更多体现粒度的属性信息作为 Q,激活失去注意力权重,晋升用户在这些更显式感知的商户表征上的趣味表白。
  3. 应用以后搜寻上下文相干的信号作为 Q,激活失去注意力权重,加强实时反馈行为对于不同上下文环境的自适应地表白。

$Q = [x_s, x_c, …, x_d] \in \Re^{K\times d_{model}}$,$K = V = x_s \oplus x_c \oplus … \oplus x_d$ 示意各种反馈序列(shop_id/category/distance/position 等)相加,作为 Transformer 的输出,Multi-View 的注意力构造能够由以下公式示意:

$$MultiHead(Q, K, V) = Concat(head_1, head_2, …, head_h) W^O$$$$head_i = Attention(Q_iW^{Q_i}, KW_i^K, VW_i^V)$$$$Attention(Q_i, K, V) = softmax(\frac{Q_iK^T}{\sqrt{d_k}})V$$

通过融化比照试验发现,相比于随机初始化的 Multi-Head Attention,这种显式应用多种商户上下文特色的 Transformer 激活形式成果更显著。

Match&Aggregate 序列特色

对于端上的用户实时反馈特色,除了各种罕用的基于 Attention 的序列建模形式,还有一种采纳显式穿插的趣味提取形式。如图 7 所示,相比于个别基于 Embedding 内积计算“Soft”权重的 Attention 建模,它能够了解为一种“Hard”的 Attention 形式,提取的模式包含:Hit(是否命中)、Frequency(命中多少次)、Step(距离多久)等等,除了单变量序列的穿插,还能够组合多个变量进行穿插,来晋升行为形容的粒度和区分度。

这种基于先验常识引入的反馈序列穿插特色,能够肯定水平上防止“Soft”Attention 形式引入的一些乐音信息,同时也具备更好的可解释性。比方,用户在搜寻“火锅”时,没有抉择左近的商户,而点击了常住地左近的历史偏好商户,这种场景下存在显著的信号阐明用户提前决策的用意。这时,退出一些显式的强穿插特色(例如,待排商户距实时点击商户的间隔等)就能十分好的捕获这种用意,从而把距离远但和用户用意更匹配的相干商户排上来。在公众点评搜寻的场景下,咱们基于该形式引入了大量的先验穿插特色,也获得了较为显著的成果。

3.3 重排模型设计

对于重排序的钻研,目前业界也有不少相干的工作,包含:基于贪婪策略优化多指标的 MMR(Maximal Marginal Relevance) [8],间接建模上下文作用关系的 Context-aware List-wise Model[2,3] 以及基于强化学习的计划 [9] 等。在搜寻端智能重排场景上,咱们采纳了基于 Context-aware List-wise 的模型进行构建,通过建模精排模型生成的 Top-N 个物品上下文之间的相互影响关系,来生成 Top-K 后果。整体模型构造如下图 8 所示,次要包含端云联动的训练计划,以此来引入更多云端的交互表征;以及基于 Transformer 的上下文关系建模,上面将别离进行介绍。

端云联结训练

一般来说,云端的重排序模型根本都复用精排层的特色,并在此基础上退出精排输入的地位或者模型分。公众点评搜寻精排模型通过长期的迭代更新,曾经建设了大量的根底、场景相干特色,以及建模了包含点击、访购等多个联结指标,这些大规模维度的特色和多指标优化在端上间接复用存在微小的计算开销、存储 & 传输压力。而仅应用云端模型地位或者预估分输入,则不可避免的会损失掉很多端云特色的穿插表达能力。同时,对于到端云两侧的模型迭代、更新,还会存在较大的保护老本。

因而,咱们采纳端云联结训练的形式把大量的云端特色穿插信号,以及多指标高阶表征引入到端上应用。如图 9 所示,云端的模型训练收敛后,退出到端上重排工作持续 Fine-tune 更新。须要留神的是:

  1. 因为搜寻精排层应用的是 ListWise 的 LambdaLoss,模型输入的预估分仅有绝对的大小意思,不能示意商户的点击率预估范畴,无奈进行全局的绝对值应用。故仅采纳网络的最初一层输入接入。
  2. 仅接入最初一层的 Dense 输入,大大损失了云端特色与端上特色的穿插能力,因而,须要通过特征选择形式,选取头部特色退出到云端进行应用。

重排商户上下文建模

商户上下文重排建模构造参考 PRM[3],联合端上利用场景做了一些调整,具体构造如下图 10 所示:

次要由以下几个局部形成:

  • 商户特征向量 X:由前文所述的各方面特色(User/Shop 单、双侧统计穿插特色、反馈序列编码特色,以及云端交融输入的特色)通过全连贯映射后的输入进行示意。该输入已蕴含地位信息,所以后续的 Transformer 输出不须要再减少地位编码。
  • 输出层须要进过 Query Dynamic Partition 解决,切分为每个 Query 单元的上下文商户序列,再输出到 Transformer 层进行编码。
  • Transformer 编码层:通过 Multi-Head Self-Attention 编码商户上下文关系。

优化指标

在搜寻场景下,咱们关注的还是用户搜寻的成功率(有没有产生点击行为),不同于举荐、广告场景往往基于全局性损失预估 item 的点击率,搜寻业务更关怀排在页面头部后果的好坏,靠前地位排序须要优先思考。因而,在重排晋升用户搜寻点击率指标的建模中,咱们采纳了 ListWise 的 LambdaLoss,梯度更新中引入 DeltaNDCG 值来强化头部地位的影响。具体推论和计算实现过程参见公众点评搜寻基于常识图谱的深度学习排序实际。

$$C = \frac{1}{2}(1 – S{ij})\sigma(s_i – s_j) + log(1 + e^{-\sigma (s_i-s_j)})$$
$$\lambda_{ij} = \frac{\partial C(s_i – s_j)}{\partial s_i} = \frac{-\sigma}{1 + e^{\sigma (s_i-s_j)}}| \Delta _{NDCG}|$$

3.4 多场景利用成果

综合上述特色 & 模型优化动作,相干的离线试验指标成果对比方表 2 所示:

端智能重排序在点评主搜和美食频道列表页上线 AB 试验,外围业务指标 QV_CTR 均在高位根底上获得显著晋升。如图 11 所示,上半局部,主搜列表页 QV_CTR 晋升 0.25%,美食频道列表页 QV_CTR 晋升 0.43%,分端体现稳固正向。另外,从下半局部分地位的点击率对比曲线,能够看出,端上重排可能肯定水平上缓解固定分页申请的点击衰减成果,尤其在靠后的几屏展现上都有比较显著的晋升。

4 零碎架构与部署优化

不同于云端的大规模深度模型上线,几百 GB,甚至上 T 的模型都能够通过裁减机器分片加载的分布式计划部署应用。终端设备的计算和存储能力尽管有了显著晋升,能够反对肯定规模的深度模型进行推理,但相对来说,端上的存储资源是十分受限的,毕竟 App 整体的大小最多不过几百 MB。

因而,除了后面提到的在特征选择、触发决策控制上对成果与性能进行衡量外,咱们还在模型部署、压缩上做了进一步优化,并对能耗等各方面指标进行具体的评估。另外,为了更高效地迭代端上的模型,包含进一步开掘用户实时的趣味偏好特色,自研了一套和云端零碎流程统一的“端无感”模型训练、预估框架,上面会逐渐开展介绍。

4.1 零碎架构

整体的端智能重排零碎架构,包含和云端的搜寻排序零碎联结部署计划如图 12 所示。具体来说,次要有以下三大模块来反对端上重排零碎的实现:

  • 智能触发计划模块,针对业务设计的各类触发事件,执行端上智能模块的调度。例如,用户点击商户行为触发执行本地重排。
  • 端上重排服务模块,执行构建特色数据,并调用端侧推理引擎运行重排模型,进行打分输入。其中:

    • 特色解决局部,是搜寻技术核心针对搜 / 推 / 广算法场景,专项设计的一套不便算法应用的通用特色算子解决服务。反对对客户端、云端的各种类型数据,应用轻量、简便的表达式构建特色。
    • 端侧推理引擎局部,是终端研发核心输入的对立模型治理框架,反对各类端上轻量级推理引擎部署,以及模型的动静下发管制等。
  • Native 重排解决逻辑局部,次要进行重排输入后的后果回插,刷新管制解决。

4.2 端上大规模深度模型部署优化

Sparse Embedding 与 Dense 网络拆分部署

因为端上的计算资源受限,无奈存储残缺的超大规模参数模型,因而,基于最直观的思路,咱们将离线训练的模型参数拆分成了 Dense 网络与大规模 ID 特色的 Embedding Table 别离部署:

  1. 主 Dense 网络以及一些较小的 Query/Contextual 特色、Shop 根底属性特色等输出层构造,转化成 MNN 格局,存储在美团资源管理平台上,供客户端启动时一次性拉取,存储在客户端本地。
  2. 大规模的 ID 特色 Embedding Table 局部(占整体网络参数量的 80%),存储在云端的 TF-Servering 服务中,在客户端发动搜寻申请时,会从 Serving 服务中获取当前页商户后果所对应的 Embedding 特色,与商户后果列表一起下返回到客户端,与客户端构建的其余特色一起 Concat 后,输出到推理引擎进行打分重排。

模型压缩

通过上一步拆分解决,模型大小能够管制在 10MB 以内,为了进一步缩小模型在手机端的空间占用,以及功耗 / 性能影响,咱们采纳了美团视觉智能部提供的压缩计划。该计划针对现有的神经网络模型压缩技术没有思考要符合部署的端智能设施、压缩后的模型往往不能适配特定的设施、输入后果对齐度差等问题,设计了能更好用于挪动端上部署的神经网络压缩工具,更好地在端上推理框架上施展了性能。

压缩优化后从上面的测试比照数据能够看到,模型大小进一步减小到 1MB 以内,同时精度损失在十万分位差距。采纳 Sysdiagnose 进行耗电剖析,开启推理性能,反复动作:从首页搜寻“火锅 / 五角场”,进入搜寻列表页进行首次重排推理,滑动列表再次计算后,退出页面(测试工夫为 10 分钟,距离 20 秒采纳一次),相干的能耗指标均无显著的变动。

4.3 端智能模型训练预估平台

不同于云端的排序算法试验流程,曾经有成熟、欠缺的训练预估平台反对,特色 & 模型上线十分便捷、高效。客户端的试验流程后期存在十分大的迭代效率问题,比方模型的上线流程繁琐,包含模型构造的拆散、转换 & 验证以及公布依赖大量的人工操作,跟多个外部平台的流转、对接;另外特色迭代效率低下,须要客户端协同开发相应的特色加工逻辑,存在较大的逻辑一致性危险,而且还会存在分端的实现差别等问题。

基于此,美团的前后端工程合力推动开发、设计了一套适配客户端的 Augur 特色解决框架,将端上的模型公布和特色解决与一站式试验平台(Poker)、对立预估框架(Augur)进行买通,为进一步的算法迭代试验奠定了良好的根底,后续搜寻技术核心团队也会向大家介绍面向端智能算法利用的一站式模型训练预估平台,敬请期待。

5 总结与瞻望

端智能重排序是公众点评搜寻在边缘计算方向的一次摸索实际,并且在外围指标上获得了较为显著的成果。通过利用端上计算的能力,更高效地捕获用户的实时趣味偏好,补救云端服务决策提早、用户反馈信息获取提早等问题。及时调整未曝光候选后果的程序,把更合乎用户用意的商户排上来,从而带来更好的用户搜寻触达体验。同时,咱们对前后端训练、部署预估框架进行了降级,为后续进一步疾速迭代试验奠定了良好的根底。

公众点评搜寻技术核心团队会继续进行端智能技术在各个业务场景中的落地,将来能够摸索优化的方向还包含:

  1. 基于联邦学习模式,进一步在保证数据隐衷平安及非法合规的根底上,迭代端云联结的智能搜寻排序模型。
  2. 建模更准确、多样的触发控制策略,对于端上实时用户用意感知的决策模块,以后的控制策略还比较简单。后续咱们会思考联合 Query 上下文,用户反馈信号等特色输入更灵便的预判信号,同时申请云端,获取更多合乎用户以后用意的候选后果。
  3. 持续优化重排序模型,包含实时反馈序列建模算法,摸索对于隐式负反馈信号更鲁棒的编码表达方式等。
  4. 思考端上更丰盛、灵便的利用场景,比方模型的个性化定制,做到“千人千模”的极致个性化体验。

作者简介

祝升、刘哲、汤彪、嘉炜、凯元、杨乐、洪晨、曼曼、华林、孝峰、张弓,来自美团 / 公众点评事业部 / 搜寻技术核心。

逸然、朱敏,来自美团平台 / 搜寻与 NLP 部 / 工程研发核心。

参考资料

[1] Yu Gong, Ziwen Jiang, et al. “EdgeRec: Recommender System on Edge in Mobile Taobao” arXiv preprint arXiv:2005.08416 (2020).
[2] Qingyao Ai, Keping Bi, et al. “Learning a Deep Listwise Context Model for Ranking Refinement” arXiv preprint arXiv:1804.05936 (2018).
[3] Changhua Pei, Yi Zhang, et al. “Personalized Re-ranking for Recommendation” arXiv preprint arXiv:1904.06813 (2019).
[4] Ruobing Xie, Cheng Ling, et al. “Deep Feedback Network for Recommendation” (IJCAI-2020).
[5] 非易、祝升等. 公众点评搜寻基于常识图谱的深度学习排序实际.
[6] 肖垚、家琪等. Transformer 在美团搜寻排序中的实际.
[7] Qingyao Ai, Daniel N Hill, et al. “A zero attention model for personalized product search” arXiv preprint arXiv:1908.11322 (2019).
[8] Teo CH, Nassif H, et al. “Adaptive, Personalized Diversity for Visual Discovery” (RecSys-2016).
[9] Eugene Ie, Vihan Jain, et al. “SLATEQ – A Tractable Decomposition for Reinforcement Learning with Recommendation Sets” (IJCAI-19).
[10] Zhou, Guorui, et al. “Deep interest network for click-through rate prediction.” (SIGKDD-2018).
[11] Zhou, Guorui, et al. “Deep interest evolution network for click-through rate prediction.” (AAAI-2019).
[12] Chen, Qiwei, et al. “Behavior Sequence Transformer for E-commerce Recommendation in Alibaba.” arXiv preprint arXiv:1905.06874 (2019).

招聘信息

美团 / 点评事业部 - 搜寻技术核心,致力于打造一流的搜寻零碎和搜寻体验,满足公众点评用户的多样搜寻需要,撑持各业务在公众点评 App 上的搜寻需要。欢送感兴趣的同学发送简历至:edp.itu.zhaopin@meituan.com。

浏览美团技术团队更多技术文章合集

前端 | 算法 | 后端 | 数据 | 平安 | 运维 | iOS | Android | 测试

| 在公众号菜单栏对话框回复【2021 年货】、【2020 年货】、【2019 年货】、【2018 年货】、【2017 年货】等关键词,可查看美团技术团队历年技术文章合集。

| 本文系美团技术团队出品,著作权归属美团。欢送出于分享和交换等非商业目标转载或应用本文内容,敬请注明“内容转载自美团技术团队”。本文未经许可,不得进行商业性转载或者应用。任何商用行为,请发送邮件至 tech@meituan.com 申请受权。

正文完
 0