简介:Flink 在唯品会的容器化实际利用以及产品化教训。
唯品会自 2017 年开始基于 k8s 深刻打造高性能、稳固、牢靠、易用的实时计算平台,反对唯品会外部业务在平时以及大促的安稳运行。现平台反对 Flink、Spark、Storm 等支流框架。本文次要分享 Flink 的容器化实际利用以及产品化教训。内容包含:
- 倒退概览
- Flink 容器化实际
- Flink SQL 平台化建设
- 利用案例
- 将来布局
GitHub 地址
https://github.com/apache/flink
欢送大家给 Flink 点赞送 star~
一、倒退概览
平台反对公司外部所有部门的实时计算利用。次要的业务包含实时大屏、举荐、试验平台、实时监控和实时数据荡涤等。
1.1 集群规模
平台现有异地双机房双集群,具备 2000 多的物理机节点,利用 k8s 的 namespaces,labels 和 taints 等,实现业务隔离以及初步的计算负载隔离。目前线上实时利用有大略 1000 个,平台最近次要反对 Flink SQL 工作的上线。
1.2 平台架构
- 上图是唯品会实时计算平台的整体架构。
- 最底层是计算工作节点的资源调度层,理论是以 deployment 的模式运行在 k8s 上,平台尽管反对 yarn 调度,然而 yarn 调度是与批工作共享资源,所以支流工作还是运行在 k8s 上。
- 存储层这一层,反对公司外部基于 kafka 实时数据 vms,基于 binlog 的 vdp 数据和原生 kafka 作为音讯总线,状态存储在 hdfs 上,数据次要存入 redis,mysql,hbase,kudu,clickhouse 等。
- 计算引擎层,平台反对 Flink,Spark,Storm 支流框架容器化,提供了一些框架的封装和组件等。每个框架会都会反对几个版本的镜像满足不同的业务需要。
- 平台层提供作业配置、调度、版本治理、容器监控、job 监控、告警、日志等性能,提供多租户的资源管理(quota,label 治理),提供 kafka 监控。在 Flink 1.11 版本之前,平台自建元数据管理系统为 Flink SQL 治理 schema,1.11 版本开始,通过 hive metastore 与公司元数据管理系统交融。
最上层就是各个业务的应用层。
二、Flink 容器化实际
2.1 容器化实际
上图是实时平台 Flink 容器化的架构。Flink 容器化是基于 standalone 模式部署的。
- 部署模式共有 client,jobmanager 和 taskmanager 三个角色,每一个角色都由一个 deployment 管制。
- 用户通过平台上传工作 jar 包,配置等,存储于 hdfs 上。同时由平台保护的配置,依赖等也存储在 hdfs 上,当 pod 启动时,会进行拉取等初始化操作。
- client 中主过程是一个由 go 开发的 agent,当 client 启动时,会首先查看集群状态,当集群 ready 后,从 hdfs 上拉取 jar 包向 Flink 集群提交工作。同时,client 的次要性能还有监控工作状态,做 savepoint 等操作。
- 通过部署在每台物理机上的 smart – agent 采集容器的指标写入 m3,以及通过 Flink 暴漏的接口将 metrics 写入 prometheus,联合 grafana 展现。同样通过部署在每台物理机上的 vfilebeat 采集挂载进去的相干日志写入 es,在 dragonfly 能够实现日志检索。
■ Flink 平台化
在实际过程中,联合具体场景以及易用性思考,做了平台化工作。
- 平台的工作配置与镜像,Flink 配置,自定义组件等解耦合,现阶段平台反对 1.7、1.9、1.11、1.12 等版本。
- 平台反对流水线编译或上传 jar、作业配置、告警配置、生命周期治理等,从而缩小用户的开发成本。
- 平台开发了容器级别的如火焰图等调优诊断的页面化性能,以及登陆容器的性能,反对用户进行作业诊断。
■ Flink 稳定性
在利用部署和运行过程中,不可避免的会出现异常。以下是平台保障工作在出现异常情况后的稳定性做的策略。
- pod 的衰弱和可用,由 livenessProbe 和 readinessProbe 检测,同时指定 pod 的重启策略。
-
Flink 工作异样时:
1.Flink 原生的 restart 策略和 failover 机制,作为第一层的保障。
2. 在 client 中会定时监控 Flink 状态,同时将最新的 checkpoint 地址更新到本人的缓存中,并汇报到平台,固化到 MySQL 中。当 Flink 无奈再重启时,由 client 从新从最新的胜利 checkpoint 提交工作。作为第二层保障。这一层将 checkpoint 固化到 MySQL 中后,就不再应用 Flink HA 机制了,少了 zk 的组件依赖。
3. 以后两层无奈重启时或集群出现异常时,由平台主动从固化到 MySQL 中的最新 chekcpoint 从新拉起一个集群,提交工作,作为第三层保障。 -
机房容灾:
- 用户的 jar 包,checkpoint 都做了异地双 HDFS 存储
- 异地双机房双集群
2.2 kafka 监控计划
kafka 监控是咱们的工作监控里绝对重要的一部分,整体监控流程如下所示。
平台提供监控 kafka 沉积,生产 message 等配置信息,从 MySQL 中将用户 kafka 监控配置提取后,通过 jmx 监控 kafka,写入上游 kafka,再通过另一个 Flink 工作实时监控,同时将这些数据写入 ck,从而展现给用户。
三、Flink SQL 平台化建设
基于 k8s 的 Flink 容器化实现当前,不便了 Flink api 利用的公布,然而对于 Flink SQL 的工作依然不够便捷。于是平台提供了更加不便的在线编辑公布、SQL 治理等一栈式开发平台。
3.1 Flink SQL 计划
平台的 Flink SQL 计划如上图所示,工作公布零碎与元数据管理系统齐全解耦。
■ Flink SQL 工作公布平台化
在实际过程中,联合易用性思考,做了平台化工作,主操作界面如下图所示:
- Flink SQL 的版本治理,语法校验,拓扑图治理等;
- UDF 通用和工作级别的治理,反对用户自定义 UDF;
- 提供参数化的配置界面,不便用户上线工作。
■ 元数据管理
平台在 1.11 之前通过构建本人的元数据管理系统 UDM,MySQL 存储 kafka,redis 等 schema,通过自定义 catalog 买通 Flink 与 UDM,从而实现元数据管理。1.11 之后,Flink 集成 hive 逐步欠缺,平台重构了 FlinkSQL 框架,通过部署一个 SQL – gateway service 服务,两头调用本人保护的 SQL – client jar 包,从而与离线元数据买通,实现了实时离线元数据对立,为之后的流批一体做好工作。在元数据管理系统创立的 Flink 表操作界面如下所示,创立 Flink 表的元数据,长久化到 hive 里,Flink SQL 启动时从 hive 里读取对应表的 table schema 信息。
3.2 Flink SQL 相干实际
平台对于官网原生反对或者不反对的 connector 进行整合和开发,镜像和 connector,format 等相干依赖进行解耦,能够快捷的进行更新与迭代。
■ FLINK SQL 相干实际
- connector 层,现阶段平台反对官网反对的 connector,并且构建了 redis,kudu,clickhouse,vms,vdp 等平台外部的 connector。平台构建了外部的 pb format,反对 protobuf 实时荡涤数据的读取。平台构建了 kudu,vdp 等外部 catalog,反对间接读取相干的 schema,不必再创立 ddl。
- 平台层次要是在 UDF、罕用运行参数调整、以及降级 hadoop3。
- runntime 层次要是反对拓扑图执行打算批改、维表关联 keyBy cache 优化等
■ 拓扑图执行打算批改
针对现阶段 SQL 生成的 stream graph 并行度无奈批改等问题,平台提供可批改的拓扑预览批改相干参数。平台会将解析后的 FlinkSQL 的 excution plan json 提供给用户,利用 uid 保障算子的唯一性,批改每个算子的并行度,chain 策略等,也为用户解决反压问题提供办法。例如针对 clickhouse sink 小并发大批次的场景,咱们反对批改 clickhouse sink 并行度,source 并行度 = 72,sink 并行度 = 24,进步 clickhouse sink tps。
■ 维表关联 keyBy 优化 cache
针对维表关联的状况,为了升高 IO 申请次数,升高维表数据库读压力,从而升高提早,进步吞吐,有以下几种措施:
- 当维表数据量不大时,通过全量维表数据缓存在本地,同时 ttl 管制缓存刷新的时候,这能够极大的升高 IO 申请次数,但会要求更多但内存空间。
- 当维表数据量很大时,通过 async 和 LRU cache 策略,同时 ttl 和 size 来管制缓存数据的生效工夫和缓存大小,能够进步吞吐率并升高数据库的读压力。
- 当维表数据量很大同时支流 qps 很高时,能够开启把维表 join 的 key 作为 hash 的条件,将数据进行分区,即在 calc 节点的分区策略是 hash,这样上游算子的 subtask 的维表数据是独立的,不仅能够进步命中率,也可升高内存应用空间。
优化之前维表关联 LookupJoin 算子和失常算子 chain 在一起。
优化之间维表关联 LookupJoin 算子和失常算子不 chain 在一起,将 join key 作为 hash 策略的 key。采纳这种形式优化之后,例如原先 3000W 数据量的维表,10 个 TM 节点,每个节点都要缓存 3000W 的数据,总共须要缓存 3000W * 10 = 3 亿的量。而通过 keyBy 优化之后,每个 TM 节点只须要缓存 3000W / 10 = 300W 的数据量,总共缓存的数据量只有 3000W,大大减少缓存数据量。
■ 维表关联提早 join
维表关联中,有很多业务场景,在维表数据新增数据之前,支流数据曾经产生 join 操作,会呈现关联不上的状况。因而,为了保证数据的正确,将关联不上的数据进行缓存,进行提早 join。
最简略的做法是,在维表关联的 function 里设置重试次数和重试距离,这个办法会增大整个流的提早,但支流 qps 不高的状况下,能够解决问题。
减少提早 join 的算子,当 join 维表未关联时,先缓存起来,依据设置重试次数和重试距离从而进行提早的 join。
四、利用案例
4.1 实时数仓
■ 实时数据入仓
- 流量数据一级 kafka 通过实时荡涤之后,写到二级荡涤 kafka,次要是 protobuf 格局,再通过 Flink SQL 写入 hive 5min 表,以便做后续的准实时 ETL,减速 ods 层数据源的筹备工夫。
- MySQL 业务库的数据,通过 VDP 解析造成 binlog cdc 音讯流,再通过 Flink SQL 写入 hive 5min 表。
- 业务零碎通过 VMS API 产生业务 kafka 音讯流,通过 Flink SQL 解析之后写入 hive 5min 表。反对 string、json、csv 等音讯格局。
- 应用 Flink SQL 做流式数据入仓,十分的不便,而且 1.12 版本曾经反对了小文件的主动合并,解决了小文件的痛点。
- 咱们自定义分区提交策略,以后分区 ready 时候会调一下实时平台的分区提交 api,在离线调度定时调度通过这个 api 查看分区是否 ready。
采纳 Flink SQL 对立入仓计划当前,咱们能够取得的收益:可解决以前 Flume 计划不稳固的问题,而且用户可自助入仓,大大降低入仓工作的保护老本。晋升了离线数仓的时效性,从小时级升高至 5min 粒度入仓。
■ 实时指标计算
- 实时利用生产荡涤后 kafka,通过 redis 维表、api 等形式关联,再通过 Flink window 增量计算 UV,长久化写到 Hbase 里。
- 实时利用生产 VDP 音讯流之后,通过 redis 维表、api 等形式关联,再通过 Flink SQL 计算出销售额等相干指标,增量 upsert 到 kudu 里,不便依据 range 分区批量查问,最终通过数据服务对实时大屏提供最终服务。
以往指标计算通常采纳 Storm 形式,须要通过 api 定制化开发,采纳这样 Flink 计划当前,咱们能够取得的收益:将计算逻辑切到 Flink SQL 上,升高计算工作口径变动快,批改上线周期慢等问题。切换至 Flink SQL 能够做到疾速批改,疾速上线,升高保护老本。
■ 实时离线一体化 ETL 数据集成
Flink SQL 在最近的版本中继续强化了维表 join 的能力,不仅能够实时关联数据库中的维表数据,当初还能关联 Hive 和 Kafka 中的维表数据,能灵便满足不同工作负载和时效性的需要。
基于 Flink 弱小的流式 ETL 的能力,咱们能够对立在实时层做数据接入和数据转换,而后将明细层的数据回流到离线数仓中。
咱们通过将 presto 外部应用的 HyperLogLog (前面简称 HLL) 实现引入到 Spark UDAF 函数里,买通 HLL 对象在 Spark SQL 与 presto 引擎之间的互通,如 Spark SQL 通过 prepare 函数生成的 HLL 对象,不仅能够在 Spark SQL 里 merge 查问而且能够在 presto 里进行 merge 查问。具体流程如下:
UV 近似计算示例:
Step 1: Spark SQL 生成 HLL 对象
insert overwrite dws\_goods\_uv partition (dt=’${dt}’,hm=’${hm}’) AS select goods\_id, estimate\_prepare(mid) as pre\_hll from dwd\_table\_goods group by goods\_id where dt = ${dt} and hm = ${hm}
Step 2: Spark SQL 通过 goods\_id 维度的 HLL 对象 merge 成品牌维度
insert overwrite dws\_brand\_uv partition (dt=’${dt}’,hm=’${hm}’) AS select b.brand\_id, estimate\_merge(pre\_hll) as merge\_hll from dws\_table\_brand A left join dim\_table\_brand\_goods B on A.goods\_id = B.goods\_id where dt = ${dt} and hm = ${hm}
Step 3: Spark SQL 查问品牌维度的 UV
select brand\_id, estimate\_compute(merge\_hll) as uv from dws\_brand\_uv where dt = ${dt}
Step 4: presto merge 查问 park 生成的 HLL 对象
select brand\_id,cardinality(merge(cast(merge\_hll AS HyperLogLog))) uv from dws\_brand\_uv group by brand\_id
所以基于实时离线一体化 ETL 数据集成的架构,咱们能取得的收益:
- 对立了根底公共数据源;
- 晋升了离线数仓的时效性;
- 缩小了组件和链路的保护老本。
4.2 试验平台(Flink 实时数据入 OLAP)
唯品会试验平台是通过配置多维度剖析和下钻剖析,提供海量数据的 A / B – test 试验成果剖析的一体化平台。一个试验是由一股流量(比方用户申请)和在这股流量上进行的绝对比照试验的批改组成。试验平台对于海量数据查问有着低提早、低响应、超大规模数据 (百亿级) 的需要。整体数据架构如下:
通过 Flink SQL 将 kafka 里的数据荡涤解析开展等操作之后,通过 redis 维表关联商品属性,通过分布式表写入到 clickhouse,而后通过数据服务 adhoc 查问。业务数据流如下:
咱们通过 Flink SQL redis connector,反对 redis 的 sink、source 维表关联等操作,能够很不便的读写 redis,实现维表关联,维表关联内可配置 cache,极大进步利用的 TPS。通过 Flink SQL 实现实时数据流的 pipeline,最终将大宽表 sink 到 CK 里,并依照某个字段粒度做 murmurHash3\_64 存储,保障雷同用户的数据都存在同一 shard 节点组内,从而使得 ck 大表之间的 join 变成 local 本地表之间的 join, 缩小数据 shuffle 操作,晋升 join 查问效率。
五、将来布局
5.1 进步 Flink SQL 易用性
以后咱们的 Flink SQL 调试起来很有很多不不便的中央,对于做离线 hive 用户来说还有肯定的应用门槛,例如手动配置 kafka 监控、工作的压测调优,如何能让用户的应用门槛升高至最低,是一个比拟大的挑战。未来咱们思考做一些智能监控通知用户当前任务存在的问题,尽可能自动化并给用户一些优化倡议。
5.2 数据湖 CDC 剖析计划落地
目前咱们的 VDP binlog 音讯流,通过 Flink SQL 写入到 hive ods 层,以减速 ods 层数据源的筹备工夫,然而会产生大量反复音讯去重合并。咱们会思考 Flink + 数据湖的 cdc 入仓计划来做增量入仓。此外,像订单打宽之后的 kafka 音讯流、以及聚合后果都须要十分强的实时 upsert 能力,目前咱们次要是用 kudu,然而 kudu 集群,比拟独立小众,保护老本高,咱们会调研数据湖的增量 upsert 能力来替换 kudu 增量 upsert 场景。
更多 Flink 相干技术问题,可扫码退出社区钉钉交换群~
流动举荐:
仅需 99 元即可体验阿里云基于 Apache Flink 构建的企业级产品 - 实时计算 Flink 版!点击下方链接理解流动详情:https://www.aliyun.com/product/bigdata/sc?utm\_content=g\_1000250506
版权申明:本文内容由阿里云实名注册用户自发奉献,版权归原作者所有,阿里云开发者社区不领有其著作权,亦不承当相应法律责任。具体规定请查看《阿里云开发者社区用户服务协定》和《阿里云开发者社区知识产权爱护指引》。如果您发现本社区中有涉嫌剽窃的内容,填写侵权投诉表单进行举报,一经查实,本社区将立即删除涉嫌侵权内容。