关于flink:Flink-在唯品会的实践

6次阅读

共计 6815 个字符,预计需要花费 18 分钟才能阅读完成。

简介:Flink 在唯品会的容器化实际利用以及产品化教训。
唯品会自 2017 年开始基于 k8s 深刻打造高性能、稳固、牢靠、易用的实时计算平台,反对唯品会外部业务在平时以及大促的安稳运行。现平台反对 Flink、Spark、Storm 等支流框架。本文次要分享 Flink 的容器化实际利用以及产品化教训。内容包含:

倒退概览
Flink 容器化实际
Flink SQL 平台化建设
利用案例
将来布局

一、倒退概览

平台反对公司外部所有部门的实时计算利用。次要的业务包含实时大屏、举荐、试验平台、实时监控和实时数据荡涤等。

1.1 集群规模

平台现有异地双机房双集群,具备 2000 多的物理机节点,利用 k8s 的 namespaces,labels 和 taints 等,实现业务隔离以及初步的计算负载隔离。目前线上实时利用有大略 1000 个,平台最近次要反对 Flink SQL 工作的上线。

1.2 平台架构

上图是唯品会实时计算平台的整体架构。

最底层是计算工作节点的资源调度层,理论是以 deployment 的模式运行在 k8s 上,平台尽管反对 yarn 调度,然而 yarn 调度是与批工作共享资源,所以支流工作还是运行在 k8s 上。

存储层这一层,反对公司外部基于 kafka 实时数据 vms,基于 binlog 的 vdp 数据和原生 kafka 作为音讯总线,状态存储在 hdfs 上,数据次要存入 redis,mysql,hbase,kudu,clickhouse 等。

计算引擎层,平台反对 Flink,Spark,Storm 支流框架容器化,提供了一些框架的封装和组件等。每个框架会都会反对几个版本的镜像满足不同的业务需要。
平台层提供作业配置、调度、版本治理、容器监控、job 监控、告警、日志等性能,提供多租户的资源管理(quota,label 治理),提供 kafka 监控。在 Flink 1.11 版本之前,平台自建元数据管理系统为 Flink SQL 治理 schema,1.11 版本开始,通过 hive metastore 与公司元数据管理系统交融。

最上层就是各个业务的应用层。

二、Flink 容器化实际

2.1 容器化实际

上图是实时平台 Flink 容器化的架构。Flink 容器化是基于 standalone 模式部署的。

部署模式共有 client,jobmanager 和 taskmanager 三个角色,每一个角色都由一个 deployment 管制。

用户通过平台上传工作 jar 包,配置等,存储于 hdfs 上。同时由平台保护的配置,依赖等也存储在 hdfs 上,当 pod 启动时,会进行拉取等初始化操作。
client 中主过程是一个由 go 开发的 agent,当 client 启动时,会首先查看集群状态,当集群 ready 后,从 hdfs 上拉取 jar 包向 Flink 集群提交工作。同时,client 的次要性能还有监控工作状态,做 savepoint 等操作。
通过部署在每台物理机上的 smart – agent 采集容器的指标写入 m3,以及通过 Flink 暴漏的接口将 metrics 写入 prometheus,联合 grafana 展现。同样通过部署在每台物理机上的 vfilebeat 采集挂载进去的相干日志写入 es,在 dragonfly 能够实现日志检索。

■ Flink 平台化

在实际过程中,联合具体场景以及易用性思考,做了平台化工作。

平台的工作配置与镜像,Flink 配置,自定义组件等解耦合,现阶段平台反对 1.7、1.9、1.11、1.12 等版本。

平台反对流水线编译或上传 jar、作业配置、告警配置、生命周期治理等,从而缩小用户的开发成本。

平台开发了容器级别的如火焰图等调优诊断的页面化性能,以及登陆容器的性能,反对用户进行作业诊断。

■ Flink 稳定性

在利用部署和运行过程中,不可避免的会出现异常。以下是平台保障工作在出现异常情况后的稳定性做的策略。

pod 的衰弱和可用,由 livenessProbe 和 readinessProbe 检测,同时指定 pod 的重启策略。

Flink 工作异样时:

1.Flink 原生的 restart 策略和 failover 机制,作为第一层的保障。
2. 在 client 中会定时监控 Flink 状态,同时将最新的 checkpoint 地址更新到本人的缓存中,并汇报到平台,固化到 MySQL 中。当 Flink 无奈再重启时,由 client 从新从最新的胜利 checkpoint 提交工作。作为第二层保障。这一层将 checkpoint 固化到 MySQL 中后,就不再应用 Flink HA 机制了,少了 zk 的组件依赖。
3. 以后两层无奈重启时或集群出现异常时,由平台主动从固化到 MySQL 中的最新 chekcpoint 从新拉起一个集群,提交工作,作为第三层保障。

机房容灾:

用户的 jar 包,checkpoint 都做了异地双 HDFS 存储
异地双机房双集群

2.2 kafka 监控计划

kafka 监控是咱们的工作监控里绝对重要的一部分,整体监控流程如下所示。

平台提供监控 kafka 沉积,生产 message 等配置信息,从 MySQL 中将用户 kafka 监控配置提取后,通过 jmx 监控 kafka,写入上游 kafka,再通过另一个 Flink 工作实时监控,同时将这些数据写入 ck,从而展现给用户。

三、Flink SQL 平台化建设

基于 k8s 的 Flink 容器化实现当前,不便了 Flink api 利用的公布,然而对于 Flink SQL 的工作依然不够便捷。于是平台提供了更加不便的在线编辑公布、SQL 治理等一栈式开发平台。

3.1 Flink SQL 计划

平台的 Flink SQL 计划如上图所示,工作公布零碎与元数据管理系统齐全解耦。
粗体
■ Flink SQL 工作公布平台化

在实际过程中,联合易用性思考,做了平台化工作,主操作界面如下图所示:

Flink SQL 的版本治理,语法校验,拓扑图治理等;
UDF 通用和工作级别的治理,反对用户自定义 UDF;
提供参数化的配置界面,不便用户上线工作。

■ 元数据管理

平台在 1.11 之前通过构建本人的元数据管理系统 UDM,MySQL 存储 kafka,redis 等 schema,通过自定义 catalog 买通 Flink 与 UDM,从而实现元数据管理。1.11 之后,Flink 集成 hive 逐步欠缺,平台重构了 FlinkSQL 框架,通过部署一个 SQL – gateway service 服务,两头调用本人保护的 SQL – client jar 包,从而与离线元数据买通,实现了实时离线元数据对立,为之后的流批一体做好工作。在元数据管理系统创立的 Flink 表操作界面如下所示,创立 Flink 表的元数据,长久化到 hive 里,Flink SQL 启动时从 hive 里读取对应表的 table schema 信息。

3.2 Flink SQL 相干实际

平台对于官网原生反对或者不反对的 connector 进行整合和开发,镜像和 connector,format 等相干依赖进行解耦,能够快捷的进行更新与迭代。

■ FLINK SQL 相干实际

connector 层,现阶段平台反对官网反对的 connector,并且构建了 redis,kudu,clickhouse,vms,vdp 等平台外部的 connector。平台构建了外部的 pb format,反对 protobuf 实时荡涤数据的读取。平台构建了 kudu,vdp 等外部 catalog,反对间接读取相干的 schema,不必再创立 ddl。

平台层次要是在 UDF、罕用运行参数调整、以及降级 hadoop3。

runntime 层次要是反对拓扑图执行打算批改、维表关联 keyBy cache 优化等

■ 拓扑图执行打算批改

针对现阶段 SQL 生成的 stream graph 并行度无奈批改等问题,平台提供可批改的拓扑预览批改相干参数。平台会将解析后的 FlinkSQL 的 excution plan json 提供给用户,利用 uid 保障算子的唯一性,批改每个算子的并行度,chain 策略等,也为用户解决反压问题提供办法。例如针对 clickhouse sink 小并发大批次的场景,咱们反对批改 clickhouse sink 并行度,source 并行度 = 72,sink 并行度 = 24,进步 clickhouse sink tps。

■ 维表关联 keyBy 优化 cache

针对维表关联的状况,为了升高 IO 申请次数,升高维表数据库读压力,从而升高提早,进步吞吐,有以下几种措施:

当维表数据量不大时,通过全量维表数据缓存在本地,同时 ttl 管制缓存刷新的时候,这能够极大的升高 IO 申请次数,但会要求更多但内存空间。

当维表数据量很大时,通过 async 和 LRU cache 策略,同时 ttl 和 size 来管制缓存数据的生效工夫和缓存大小,能够进步吞吐率并升高数据库的读压力。
当维表数据量很大同时支流 qps 很高时,能够开启把维表 join 的 key 作为 hash 的条件,将数据进行分区,即在 calc 节点的分区策略是 hash,这样上游算子的 subtask 的维表数据是独立的,不仅能够进步命中率,也可升高内存应用空间。

优化之前维表关联 LookupJoin 算子和失常算子 chain 在一起。

优化之间维表关联 LookupJoin 算子和失常算子不 chain 在一起,将 join key 作为 hash 策略的 key。采纳这种形式优化之后,例如原先 3000W 数据量的维表,10 个 TM 节点,每个节点都要缓存 3000W 的数据,总共须要缓存 3000W * 10 = 3 亿的量。而通过 keyBy 优化之后,每个 TM 节点只须要缓存 3000W / 10 = 300W 的数据量,总共缓存的数据量只有 3000W,大大减少缓存数据量。

■ 维表关联提早 join

维表关联中,有很多业务场景,在维表数据新增数据之前,支流数据曾经产生 join 操作,会呈现关联不上的状况。因而,为了保证数据的正确,将关联不上的数据进行缓存,进行提早 join。

最简略的做法是,在维表关联的 function 里设置重试次数和重试距离,这个办法会增大整个流的提早,但支流 qps 不高的状况下,能够解决问题。

减少提早 join 的算子,当 join 维表未关联时,先缓存起来,依据设置重试次数和重试距离从而进行提早的 join。

四、利用案例

4.1 实时数仓

■ 实时数据入仓

流量数据一级 kafka 通过实时荡涤之后,写到二级荡涤 kafka,次要是 protobuf 格局,再通过 Flink SQL 写入 hive 5min 表,以便做后续的准实时 ETL,减速 ods 层数据源的筹备工夫。

MySQL 业务库的数据,通过 VDP 解析造成 binlog cdc 音讯流,再通过 Flink SQL 写入 hive 5min 表。

业务零碎通过 VMS API 产生业务 kafka 音讯流,通过 Flink SQL 解析之后写入 hive 5min 表。反对 string、json、csv 等音讯格局。

应用 Flink SQL 做流式数据入仓,十分的不便,而且 1.12 版本曾经反对了小文件的主动合并,解决了小文件的痛点。

咱们自定义分区提交策略,以后分区 ready 时候会调一下实时平台的分区提交 api,在离线调度定时调度通过这个 api 查看分区是否 ready。

采纳 Flink SQL 对立入仓计划当前,咱们能够取得的收益:可解决以前 Flume 计划不稳固的问题,而且用户可自助入仓,大大降低入仓工作的保护老本。晋升了离线数仓的时效性,从小时级升高至 5min 粒度入仓。

■ 实时指标计算

实时利用生产荡涤后 kafka,通过 redis 维表、api 等形式关联,再通过 Flink window 增量计算 UV,长久化写到 Hbase 里。

实时利用生产 VDP 音讯流之后,通过 redis 维表、api 等形式关联,再通过 Flink SQL 计算出销售额等相干指标,增量 upsert 到 kudu 里,不便依据 range 分区批量查问,最终通过数据服务对实时大屏提供最终服务。

以往指标计算通常采纳 Storm 形式,须要通过 api 定制化开发,采纳这样 Flink 计划当前,咱们能够取得的收益:将计算逻辑切到 Flink SQL 上,升高计算工作口径变动快,批改上线周期慢等问题。切换至 Flink SQL 能够做到疾速批改,疾速上线,升高保护老本。

■ 实时离线一体化 ETL 数据集成

Flink SQL 在最近的版本中继续强化了维表 join 的能力,不仅能够实时关联数据库中的维表数据,当初还能关联 Hive 和 Kafka 中的维表数据,能灵便满足不同工作负载和时效性的需要。

基于 Flink 弱小的流式 ETL 的能力,咱们能够对立在实时层做数据接入和数据转换,而后将明细层的数据回流到离线数仓中。

咱们通过将 presto 外部应用的 HyperLogLog (前面简称 HLL) 实现引入到 Spark UDAF 函数里,买通 HLL 对象在 Spark SQL 与 presto 引擎之间的互通,如 Spark SQL 通过 prepare 函数生成的 HLL 对象,不仅能够在 Spark SQL 里 merge 查问而且能够在 presto 里进行 merge 查问。具体流程如下:

UV 近似计算示例:

Step 1: Spark SQL 生成 HLL 对象

insert overwrite dws_goods_uv partition (dt=’${dt}’,hm=’${hm}’) AS select goods_id, estimate_prepare(mid) as pre_hll from dwd_table_goods group by goods_id where dt = ${dt} and hm = ${hm}

Step 2: Spark SQL 通过 goods_id 维度的 HLL 对象 merge 成品牌维度

insert overwrite dws_brand_uv partition (dt=’${dt}’,hm=’${hm}’) AS select b.brand_id, estimate_merge(pre_hll) as merge_hll from dws_table_brand A left join dim_table_brand_goods B on A.goods_id = B.goods_id where dt = ${dt} and hm = ${hm}

Step 3: Spark SQL 查问品牌维度的 UV

select brand_id, estimate_compute(merge_hll) as uv from dws_brand_uv where dt = ${dt}

Step 4: presto merge 查问 park 生成的 HLL 对象

select brand_id,cardinality(merge(cast(merge_hll AS HyperLogLog))) uv from dws_brand_uv group by brand_id

所以基于实时离线一体化 ETL 数据集成的架构,咱们能取得的收益:

对立了根底公共数据源;
晋升了离线数仓的时效性;
缩小了组件和链路的保护老本。

4.2 试验平台(Flink 实时数据入 OLAP)

唯品会试验平台是通过配置多维度剖析和下钻剖析,提供海量数据的 A / B – test 试验成果剖析的一体化平台。一个试验是由一股流量(比方用户申请)和在这股流量上进行的绝对比照试验的批改组成。试验平台对于海量数据查问有着低提早、低响应、超大规模数据 (百亿级) 的需要。整体数据架构如下:

通过 Flink SQL 将 kafka 里的数据荡涤解析开展等操作之后,通过 redis 维表关联商品属性,通过分布式表写入到 clickhouse,而后通过数据服务 adhoc 查问。业务数据流如下:

咱们通过 Flink SQL redis connector,反对 redis 的 sink、source 维表关联等操作,能够很不便的读写 redis,实现维表关联,维表关联内可配置 cache,极大进步利用的 TPS。通过 Flink SQL 实现实时数据流的 pipeline,最终将大宽表 sink 到 CK 里,并依照某个字段粒度做 murmurHash3_64 存储,保障雷同用户的数据都存在同一 shard 节点组内,从而使得 ck 大表之间的 join 变成 local 本地表之间的 join, 缩小数据 shuffle 操作,晋升 join 查问效率。

五、将来布局

5.1 进步 Flink SQL 易用性

以后咱们的 Flink SQL 调试起来很有很多不不便的中央,对于做离线 hive 用户来说还有肯定的应用门槛,例如手动配置 kafka 监控、工作的压测调优,如何能让用户的应用门槛升高至最低,是一个比拟大的挑战。未来咱们思考做一些智能监控通知用户当前任务存在的问题,尽可能自动化并给用户一些优化倡议。

5.2 数据湖 CDC 剖析计划落地

目前咱们的 VDP binlog 音讯流,通过 Flink SQL 写入到 hive ods 层,以减速 ods 层数据源的筹备工夫,然而会产生大量反复音讯去重合并。咱们会思考 Flink + 数据湖的 cdc 入仓计划来做增量入仓。此外,像订单打宽之后的 kafka 音讯流、以及聚合后果都须要十分强的实时 upsert 能力,目前咱们次要是用 kudu,然而 kudu 集群,比拟独立小众,保护老本高,咱们会调研数据湖的增量 upsert 能力来替换 kudu 增量 upsert 场景。
原文链接
本文为阿里云原创内容,未经容许不得转载。

正文完
 0