基于Blink构建亲听项目以及全链路debug项目实时响应能力

85次阅读

共计 3154 个字符,预计需要花费 8 分钟才能阅读完成。

案例与解决方案汇总页:阿里云实时计算产品案例 & 解决方案汇总

本文全面总结了大数据项目组在亲听项目以及全链路 debug 项目上进行的实时流处理需求梳理,架构选型,以及达成效果
一、背景介绍
1.1 亲听项目
亲听项目专注于帮助用户收集、展示、监控和处理用户体验问题,是保证产品的主观评价质量的利器,关于其具体功能可参考在 ata 搜索 ” 亲听 ” 查看系列文章。目前亲听项目的实时流处理需求来自算法效果监控,算法效果监控需要对上游 TimeTunnel 日志进行解析后经过处理得到一些关键指标,亲听通过对这些指标的前端展示和阈值监控报警达到算法效果监控目的。

需求要点可以总结如下:

上游需要处理的 TimeTunnel 日志的实时数据量大约在日常峰值每秒数万条记录,大促峰值每秒几十万条记录
从用户搜索行为到亲听系统得到搜索行为指标数据秒级的低延时
数据的处理逻辑较为复杂且会随着算法迭代需要发生变化

1.2 全链路 debug
全链路 debug 专注于帮助用户在线上搜索结果出现异常和问题时帮助开发者复现搜索后端各子系统的中间结果,定位并解决子系统存在的问题,是系统层级质量保证和测试的有力工具。关于其具体功能可参考在 ata 搜索 ” 全链路 debug” 查看系列文章。全链路 debug 的实时流处理需求是实时从 TimeTunnel 日志中提取出帮助排除搜索线上问题的关键内容,全链路 debug 利用这些内容帮助进行问题排查。全链路 debug 的实时流处理需求模型可以用下图描述:

需求要点可以总结如下:

上游需要处理的 TimeTunnel 日志的实时数据量大约在日常峰值每秒数万条记录,大促峰值每秒几十万条记录
需要保存的单条记录较大,平均达到几 K 左右
对上游 TimeTunnel 日志解析逻辑大部分为字段提取和透传且不会频繁变化

二、解决方案
2.1 整体架构
应对以上需求,亲听以及全拉链路 debug 的实时流处理系统的最终架构如下:
亲听:

全链路 debug:

对于亲听和全链路 debug 的实时流处理需求最终选择上述架构主要出于实时性和扩展性两方面考虑
2.2 实时性
亲听和全链路 debug 的实时流处理需求在实时性要求上是类似的,即要对接 tt 日志,在 tt 日志记录写入到对于亲听和全链路 debug 的使用方可见延时要控制在秒级,这种实时性的需求可以分解为两个部分,第一是对实时流数据的处理,而是对实时流数据处理结果的存储和查询服务。对于实时流数据的处理,目前公司内的中间件产品 blink 能很好满足我们的需求,blink 提供对接 TimeTunnel 的 api 接口,同时具备很好的实时流处理性能和运维体验;对于实时流处理结果的存储和查询,需要支持几万到几十万 qps 的写压力以及在每天累计几十 T 数据量情况下毫秒级延时的读性能,hbase 能够基本满足对读写的需求,但是 druid 和 drill 能够在满足读写性能的同时提供更好的数据查询体验和实时流处理逻辑的可扩展性,所以对于实时流数据处理结果的存储和查询服务我们是优先考虑 druid 和 drill 的,但是全链路 debug 的实时流处理结果有一个特点就是单条记录数据大小平均为几 K 左右,这么大的单条记录的大小将导致 druid 需要的内存量过大且查询性能低下而不可用,所以对于全链路 debug 的实时流处理结果的存储和查询服务选择了 hbase。
2.3 扩展性
在亲听实时流处理系统的下游引入 tt->druid,然后使用 drill 查询 druid 提供查询服务,是出于对扩展性的考虑。druid 是一种支持实时流处理和查询的 olap 系统(ATA),对接 druid 使得可以把一部分实时流数据的处理逻辑交给 druid,这样当实时流处理逻辑需要修改时,很多情况下就可以通过修改查询逻辑(只要修改一个请求 druid 时的 json 配置文件)而不需要修改 blink 任务(需要修改代码、打包、编译、调参、上线)实现,大幅提升实时流处理系统的扩展性,而亲听实时流处理需求频繁变化的业务特点非常需要这种扩展性;drill 是高性能的 SQL 查询引擎,通过 drill 对接 druid 提供查询服务不但使查询语法从 druid 的 json 文件变为 sql 可读性大幅增强,同时 drill 对 druid 查询结果具有的二次处理能力也进一步增强了通过修改查询逻辑可以满足的实时流处理逻辑变化,进一步增强系统可扩展性。
在 blink 和 druid 之间增加了 TimeTunnel 进行数据中转以保证 blink 产出流数据被转化为下游 druid 支持的流数据源形式。
2.4 经验总结
使用 table api 编写
stream api 作为 blink 的底层 api,具有较高的灵活性,但是可读性很不好,进而非常影响代码的可维护性和扩展性,当要在实时任务中加入新需求时经常要改动很多地方并且很容易出错,所有实时任务我们选择使用 table api 编写,table api 使用类 sql 语法描述实时流处理逻辑,使得数据流处理逻辑变得非常清晰,可读性大幅增强,进而节约代码的维护和扩展成本。
进行字段归类合并
我们通过梳理业务方最终需要使用的字段内容,将 blink 任务输出到 TimeTunnel 中记录的字段进行了分类合并,除了出于 druid 查询性能考虑将若干需要进行 group by 以及 count distinct 查询的原有字段保留,其余全部按照诸如搜索请求相关信息、用户相关信息、搜索返回宝贝相关信息这样的概念将原有字段分组后合并为多值字段,而每个合并后的多值字段又会在 blink 代码中用一个 udtf 函数统一处理。这样做的好处在于代码逻辑上变得更清晰,当实时流处理需求发生变化,需要产出新的内容或修改现有内容产出逻辑时,只需找到新增内容或待修改内容对应的多值字段,修改对应 udtf 逻辑并重新上线 blink 任务即可,下游的 druid build 无需进行任何修改;同时用有限的几个 udtf 对整个实时流输出记录的处理逻辑进行归类,避免了记录处理逻辑频繁变化可能导致的代码中过时字段和 udf 泛滥,可读性下降,修改易出错的问题。
drill 处理逻辑前移
请看下面这个 sql:
select * from druid.sqa_wireless_search_pv where INSTR(auction_tag, ’15’)
这个 sql drill 的处理逻辑是从 druid 表中召回 druid.sqa_wireless_search_pv 表中全部记录后逐条进行 auction_tag 字段的比对,过滤出包含‘15’字符串的记录,这种召回全部记录进行处理的操作对于 drill 来说会造成很大的性能问题,占用集群资源急剧上升,查询延时大幅提高,甚至导致集群 oom 使查询服务中断服务。在使用 drill 进行查询时应尽量避免执行类似召回大量记录进行处理的 sql,我们对亲听算法效果监控现有 sql 进行了梳理,找到召回记录数目可能会过高的 sql,通过将处理逻辑前移到 blink 任务阶段大幅优化 drill 查询性能(例如上面的 sql 只要将比对 auction_tag 字段是否含有‘15’的逻辑交给 blink 处理,并让 blink 任务新增产出一个 tag 字段,这样 druid 就可以针对 tag 字段建索引,通过 where tag==‘true’这样的语句就可以直接召回需要的记录)
三、成果总结
目前 tt->blink->hbase 和 tt->blink->tt->druid 是在公司内使用非常广泛的两种实时流处理架构,能以秒级延时完成线上实时日志处理,这两种实时流处理架构比较好地满足了亲听和全链路 debug 项目的实时数据处理需求,极大提升了项目价值
四、作者简介
鸷鸟,来自搜索事业部 - 工程效率 & 技术质量 - 算法工程平台 - 实时大数据平台 15 年加入阿里,主要从事电商体系实时数据研发以及实时大数据平台研发

本文作者:付空阅读原文
本文为云栖社区原创内容,未经允许不得转载。

正文完
 0