乐趣区

Flink-灵魂两百问这谁顶得住

Flink 学习

https://github.com/zhisheng17/flink-learning

麻烦路过的各位亲给这个项目点个 star,太不易了,写了这么多,算是对我坚持下来的一种鼓励吧!

本项目结构

2019/06/08 新增 Flink 四本电子书籍的 PDF,在 books 目录下:

  • Introduction_to_Apache_Flink_book.pdf 这本书比较薄,处于介绍阶段,国内有这本的翻译书籍
  • Learning Apache Flink.pdf 这本书比较基础,初学的话可以多看看
  • Stream Processing with Apache Flink.pdf 这本书是 Flink PMC 写的
  • Streaming System.pdf 这本书评价不是一般的高

2019/06/09 新增流处理引擎相关的 Paper,在 paper 目录下:

  • 流处理引擎相关的 Paper

博客

1、Flink 从 0 到 1 学习 —— Apache Flink 介绍

2、Flink 从 0 到 1 学习 —— Mac 上搭建 Flink 1.6.0 环境并构建运行简单程序入门

3、Flink 从 0 到 1 学习 —— Flink 配置文件详解

4、Flink 从 0 到 1 学习 —— Data Source 介绍

5、Flink 从 0 到 1 学习 —— 如何自定义 Data Source?

6、Flink 从 0 到 1 学习 —— Data Sink 介绍

7、Flink 从 0 到 1 学习 —— 如何自定义 Data Sink?

8、Flink 从 0 到 1 学习 —— Flink Data transformation(转换)

9、Flink 从 0 到 1 学习 —— 介绍 Flink 中的 Stream Windows

10、Flink 从 0 到 1 学习 —— Flink 中的几种 Time 详解

11、Flink 从 0 到 1 学习 —— Flink 读取 Kafka 数据写入到 ElasticSearch

12、Flink 从 0 到 1 学习 —— Flink 项目如何运行?

13、Flink 从 0 到 1 学习 —— Flink 读取 Kafka 数据写入到 Kafka

14、Flink 从 0 到 1 学习 —— Flink JobManager 高可用性配置

15、Flink 从 0 到 1 学习 —— Flink parallelism 和 Slot 介绍

16、Flink 从 0 到 1 学习 —— Flink 读取 Kafka 数据批量写入到 MySQL

17、Flink 从 0 到 1 学习 —— Flink 读取 Kafka 数据写入到 RabbitMQ

18、Flink 从 0 到 1 学习 —— Flink 读取 Kafka 数据写入到 HBase

19、Flink 从 0 到 1 学习 —— Flink 读取 Kafka 数据写入到 HDFS

20、Flink 从 0 到 1 学习 —— Flink 读取 Kafka 数据写入到 Redis

21、Flink 从 0 到 1 学习 —— Flink 读取 Kafka 数据写入到 Cassandra

22、Flink 从 0 到 1 学习 —— Flink 读取 Kafka 数据写入到 Flume

23、Flink 从 0 到 1 学习 —— Flink 读取 Kafka 数据写入到 InfluxDB

24、Flink 从 0 到 1 学习 —— Flink 读取 Kafka 数据写入到 RocketMQ

25、Flink 从 0 到 1 学习 —— 你上传的 jar 包藏到哪里去了

26、Flink 从 0 到 1 学习 —— 你的 Flink job 日志跑到哪里去了

Flink 源码项目结构

学习资料

另外我自己整理了些 Flink 的学习资料,目前已经全部放到微信公众号了。
你可以加我的微信:zhisheng_tian,然后回复关键字:Flink 即可无条件获取到,转载请联系本人获取授权,违者必究。

更多私密资料请加入知识星球!

有人要问知识星球里面更新什么内容?值得加入吗?

目前知识星球内已更新的系列文章:

1、Flink 源码解析 —— 源码编译运行

2、Flink 源码解析 —— 项目结构一览

3、Flink 源码解析—— local 模式启动流程

4、Flink 源码解析 —— standalonesession 模式启动流程

5、Flink 源码解析 —— Standalone Session Cluster 启动流程深度分析之 Job Manager 启动

6、Flink 源码解析 —— Standalone Session Cluster 启动流程深度分析之 Task Manager 启动

7、Flink 源码解析 —— 分析 Batch WordCount 程序的执行过程

8、Flink 源码解析 —— 分析 Streaming WordCount 程序的执行过程

9、Flink 源码解析 —— 如何获取 JobGraph?

10、Flink 源码解析 —— 如何获取 StreamGraph?

11、Flink 源码解析 —— Flink JobManager 有什么作用?

12、Flink 源码解析 —— Flink TaskManager 有什么作用?

13、Flink 源码解析 —— JobManager 处理 SubmitJob 的过程

14、Flink 源码解析 —— TaskManager 处理 SubmitJob 的过程

15、Flink 源码解析 —— 深度解析 Flink Checkpoint 机制

16、Flink 源码解析 —— 深度解析 Flink 序列化机制

17、Flink 源码解析 —— 深度解析 Flink 是如何管理好内存的?

18、Flink Metrics 源码解析 —— Flink-metrics-core

19、Flink Metrics 源码解析 —— Flink-metrics-datadog

20、Flink Metrics 源码解析 —— Flink-metrics-dropwizard

21、Flink Metrics 源码解析 —— Flink-metrics-graphite

22、Flink Metrics 源码解析 —— Flink-metrics-influxdb

23、Flink Metrics 源码解析 —— Flink-metrics-jmx

24、Flink Metrics 源码解析 —— Flink-metrics-slf4j

25、Flink Metrics 源码解析 —— Flink-metrics-statsd

26、Flink Metrics 源码解析 —— Flink-metrics-prometheus

26、Flink Annotations 源码解析

除了《从 1 到 100 深入学习 Flink》源码学习这个系列文章,《从 0 到 1 学习 Flink》的案例文章也会优先在知识星球更新,让大家先通过一些 demo 学习 Flink,再去深入源码学习!

如果学习 Flink 的过程中,遇到什么问题,可以在里面提问,我会优先解答,这里做个抱歉,自己平时工作也挺忙,微信的问题不能做全部做一些解答,
但肯定会优先回复给知识星球的付费用户的,庆幸的是现在星球里的活跃氛围还是可以的,有不少问题通过提问和解答的方式沉淀了下来。

1、为何我使用 ValueState 保存状态 Job 恢复是状态没恢复?

2、flink 中 watermark 究竟是如何生成的,生成的规则是什么,怎么用来处理乱序数据

3、消费 kafka 数据的时候,如果遇到了脏数据,或者是不符合规则的数据等等怎么处理呢?

4、在 Kafka 集群中怎么指定读取 / 写入数据到指定 broker 或从指定 broker 的 offset 开始消费?

5、Flink 能通过 oozie 或者 azkaban 提交吗?

6、jobmanager 挂掉后,提交的 job 怎么不经过手动重新提交执行?

7、使用 flink-web-ui 提交作业并执行 但是 /opt/flink/log 目录下没有日志文件 请问关于 flink 的日志(包括 jobmanager、taskmanager、每个 job 自己的日志默认分别存在哪个目录)需要怎么配置?

8、通过 flink 仪表盘提交的 jar 是存储在哪个目录下?

9、从 Kafka 消费数据进行 etl 清洗,把结果写入 hdfs 映射成 hive 表,压缩格式、hive 直接能够读取 flink 写出的文件、按照文件大小或者时间滚动生成文件

10、flink jar 包上传至集群上运行,挂掉后,挂掉期间 kafka 中未被消费的数据,在重新启动程序后,是自动从 checkpoint 获取挂掉之前的 kafka offset 位置,自动消费之前的数据进行处理,还是需要某些手动的操作呢?

11、flink 启动时不自动创建 上传 jar 的路径,能指定一个创建好的目录吗

12、Flink sink to es 集群上报 slot 不够,单机跑是好的,为什么?

13、Fllink to elasticsearch 如何创建索引文档期时间戳?

14、blink 有没有 api 文档或者 demo,是否建议 blink 用于生产环境。

15、flink 的 Python api 怎样?bug 多吗?

16、Flink VS Spark Streaming VS Storm VS Kafka Stream

17、你们做实时大屏的技术架构是什么样子的?flume→kafka→flink→redis,然后后端去 redis 里面捞数据,酱紫可行吗?

18、做一个统计指标的时候,需要在 Flink 的计算过程中多次读写 redis,感觉好怪,星主有没有好的方案?

19、Flink 使用场景大分析,列举了很多的常用场景,可以好好参考一下

20、将 kafka 中数据 sink 到 mysql 时,metadata 的数据为空,导入 mysql 数据不成功???

21、使用了 ValueState 来保存中间状态,在运行时中间状态保存正常,但是在手动停止后,再重新运行,发现中间状态值没有了,之前出现的键值是从 0 开始计数的,这是为什么?是需要实现 CheckpointedFunction 吗?

22、flink on yarn jobmanager 的 HA 需要怎么配置。还是说 yarn 给管理了

23、有两个数据流就行 connect,其中一个是实时数据流(kafka 读取),另一个是配置流。由于配置流是从关系型数据库中读取,速度较慢,导致实时数据流流入数据的时候,配置信息还未发送,这样会导致有些实时数据读取不到配置信息。目前采取的措施是在 connect 方法后的 flatmap 的实现的在 open 方法中,提前加载一次配置信息,感觉这种实现方式不友好,请问还有其他的实现方式吗?

24、Flink 能通过 oozie 或者 azkaban 提交吗?

25、不采用 yarm 部署 flink,还有其他的方案吗?主要想解决服务器重启后,flink 服务怎么自动拉起?jobmanager 挂掉后,提交的 job 怎么不经过手动重新提交执行?

26、在一个 Job 里将同份数据昨晚清洗操作后,sink 到后端多个地方(看业务需求),如何保持一致性?(一个 sink 出错,另外的也保证不能插入)

27、flink sql 任务在某个特定阶段会发生 tm 和 jm 丢失心跳,是不是由于 gc 时间过长呢,

28、有这样一个需求,统计用户近两周进入产品详情页的来源(1 首页大搜索,2 产品频道搜索,3 其他),为 php 后端提供数据支持,该信息在端上报事件中,php 直接获取有点困难。我现在的解决方案 通过 flink 滚动窗口(半小时),统计用户半小时内 3 个来源 pv,然后按照日期序列化,直接写 mysql。php 从数据库中解析出来,再去统计近两周占比。问题 1,这个需求适合用 flink 去做吗?问题 2,我的方案总感觉怪怪的,有没有好的方案?

29、一个 task slot 只能同时运行一个任务还是多个任务呢?如果 task slot 运行的任务比较大,会出现 OOM 的情况吗?

30、你们怎么对线上 flink 做监控的,如果整个程序失败了怎么自动重启等等

31、flink cep 规则动态解析有接触吗?有没有成型的框架?

32、每一个 Window 都有一个 watermark 吗?window 是怎么根据 watermark 进行触发或者销毁的?

33、CheckPoint 与 SavePoint 的区别是什么?

34、flink 可以在算子中共享状态吗?或者大佬你有什么方法可以共享状态的呢?

35、运行几分钟就报了,看 taskmager 日志,报的是 failed elasticsearch bulk request null,可是我代码里面已经做过空值判断了呀 而且也过滤掉了,flink 版本 1.7.2 es 版本 6.3.1

36、这种情况,我们调并行度 还是配置参数好

37、大家都用 jdbc 写,各种数据库增删查改拼 sql 有没有觉得很累,ps.set 代码一大堆,还要计算每个参数的位置

38、关于 datasource 的配置,每个 taskmanager 对应一个 datasource? 还是每个 slot? 实际运行下来,每个 slot 中 datasorce 线程池只要设置 1 就行了,多了也用不到?

39、kafka 现在每天出现数据丢失,现在小批量数据,一天 200W 左右, kafka 版本为 1.0.0,集群总共 7 个节点,TOPIC 有十六个分区,单条报文 1.5k 左右

40、根据 key.hash 的绝对值 对并发度求模,进行分组,假设 10 各并发度,实际只有 8 个分区有处理数据,有 2 个始终不处理,还有一个分区处理的数据是其他的三倍,如截图

41、flink 每 7 小时不知道在处理什么,CPU 负载 每 7 小时,有一次高峰,5 分钟内平均负载超过 0.8,如截图

42、有没有 Flink 写的项目推荐?我想看到用 Flink 写的整体项目是怎么组织的,不单单是一个单例子

43、Flink 源码的结构图

44、我想根据不同业务表(case when)进行不同的 redis sink(hash,set),我要如何操作?

45、这个需要清理什么数据呀,我把 hdfs 里面的已经清理了 启动还是报这个

46、在流处理系统,在机器发生故障恢复之后,什么情况消息最多会被处理一次?什么情况消息最少会被处理一次呢?

47、我检查点都调到 5 分钟了,这是什么问题

48、reduce 方法后 那个交易时间 怎么不是最新的,是第一次进入的那个时间,

49、Flink on Yarn 模式,用 yarn session 脚本启动的时候,我在后台没有看到到 Jobmanager,TaskManager,ApplicationMaster 这几个进程,想请问一下这是什么原因呢?因为之前看官网的时候,说 Jobmanager 就是一个 jvm 进程,Taskmanage 也是一个 JVM 进程

50、Flink on Yarn 的时候得指定 多少个 TaskManager 和每个 TaskManager slot 去运行任务,这样做感觉不太合理,因为用户也不知道需要多少个 TaskManager 适合,Flink 有动态启动 TaskManager 的机制吗。

51、参考这个例子,Flink 零基础实战教程:如何计算实时热门商品 | Jark’s Blog,窗口聚合的时候,用 keywindow,用的是 timeWindowAll,然后在 aggregate 的时候用 aggregate(new CustomAggregateFunction(), new CustomWindowFunction()),打印结果后,发现窗口中一直使用的重复的数据,统计的结果也不变,去掉 CustomWindowFunction()就正常了?非常奇怪

52、用户进入产品预定页面(端埋点上报),并填写了一些信息(端埋点上报),但半小时内并没有产生任何订单,然后给该类用户发送一个 push。1. 这种需求适合用 flink 去做吗?2. 如果适合,说下大概的思路

53、业务场景是实时获取数据存 redis,请问我要如何按天、按周、按月分别存入 redis 里?(比方说过了一天自动换一个位置存 redis)

54、有人 AggregatingState 的例子吗, 感觉官方的例子和 官网的不太一样?

55、flink-jdbc 这个 jar 有吗?怎么没找到啊?1.8.0 的没找到,1.6.2 的有

56、现有个关于 savepoint 的问题,操作流程为,取消任务时设置保存点,更新任务,从保存点启动任务;现在遇到个问题,假设我中间某个算子重写,原先通过 state 编写,有用定时器,现在更改后,采用窗口,反正就是实现方式完全不一样;从保存点启动就会一直报错,重启,原先的保存点不能还原,此时就会有很多数据重复等各种问题,如何才能保证数据不丢失,不重复等,恢复到停止的时候,现在想到的是记下 kafka 的偏移量,再做处理,貌似也不是很好弄,有什么解决办法吗

57、需要在 flink 计算 app 页面访问时长,消费 Kafka 计算后输出到 Kafka。第一条 log 需要等待第二条 log 的时间戳计算访问时长。我想问的是,flink 是分布式的,那么它能否保证执行的顺序性?后来的数据有没有可能先被执行?

58、我公司想做实时大屏,现有技术是将业务所需指标实时用 spark 拉到 redis 里存着,然后再用一条 spark streaming 流计算简单乘除运算,指标包含了各月份的比较。请问我该如何用 flink 简化上述流程?

59、flink on yarn 方式,这样理解不知道对不对,yarn-session 这个脚本其实就是准备 yarn 环境的,执行 run 任务的时候,根据 yarn-session 初始化的 yarnDescription 把 flink 任务的 jobGraph 提交到 yarn 上去执行

60、同样的代码逻辑写在单独的 main 函数中就可以成功的消费 kafka,写在一个 spring boot 的程序中,接受外部请求,然后执行相同的逻辑就不能消费 kafka。你遇到过吗?能给一些查问题的建议,或者在哪里打个断点,能看到为什么消费不到 kafka 的消息呢?

61、请问下 flink 可以实现一个流中同时存在订单表和订单商品表的数据 两者是一对多的关系 能实现得到 以订单表为主 一个订单多个商品 这种需求嘛

62、在用中间状态的时候,如果中间一些信息保存在 state 中,有没有必要在 redis 中再保存一份,来做第三方的存储。

63、能否出一期 flink state 的文章。什么场景下用什么样的 state?如,最简单的,实时累加 update 到 state。

64、flink 的双流 join 博主有使用的经验吗?会有什么常见的问题吗

65、窗口触发的条件问题

66、flink 定时任务怎么做?有相关的 demo 么?

67、流式处理过程中数据的一致性如何保证或者如何检测

68、重启 flink 单机集群,还报 job not found 异常。

69、kafka 的数据是用 org.apache.kafka.common.serialization.ByteArraySerialize 序列化的,flink 这边消费的时候怎么通过 FlinkKafkaConsumer 创建 DataStream<String>?

70、现在公司有一个需求,一些用户的支付日志,通过 sls 收集,要把这些日志处理后,结果写入到 MySQL,关键这些日志可能连着来好几条才是一个用户的,因为发起请求,响应等每个环节都有相应的日志,这几条日志综合处理才能得到最终的结果,请问博主有什么好的方法没有?

71、flink 支持 hadoop 主备么?hadoop 主节点挂了 flink 会切换到 hadoop 备用节点?

72、请教大家: 实际 flink 开发中用 scala 多还是 java 多些?刚入手 flink 大数据 scala 需要深入学习么?

73、我使用的是 flink 是 1.7.2 最近用了 split 的方式分流,但是底层的 SplitStream 上却标注为 Deprecated,请问是官方不推荐使用分流的方式吗?

74、KeyBy 的正确理解,和数据倾斜问题的解释

75、用 flink 时,遇到个问题 checkpoint 大概有 2G 左右,有背压时,flink 会重启有遇到过这个问题吗

76、flink 使用 yarn-session 方式部署,如何保证 yarn-session 的稳定性,如果 yarn-session 挂了,需要重新部署一个 yarn-session,如何恢复之前 yarn-session 上的 job 呢,之前的 checkpoint 还能使用吗?

77、我想请教一下关于 sink 的问题。我现在的需求是从 Kafka 消费 Json 数据,这个 Json 数据字段可能会增加,然后将拿到的 json 数据以 parquet 的格式存入 hdfs。现在我可以拿到 json 数据的 schema,但是在保存 parquet 文件的时候不知道怎么处理。一是 flink 没有专门的 format parquet,二是对于可变字段的 Json 怎么处理成 parquet 比较合适?

78、flink 如何在较大的数据量中做去重计算。

79、flink 能在没有数据的时候也定时执行算子吗?

80、使用 rocksdb 状态后端,自定义 pojo 怎么实现序列化和反序列化的,有相关 demo 么?

81、check point 老是失败,是不是自定义的 pojo 问题?到本地可以,到 hdfs 就不行,网上也有很多类似的问题 都没有一个很好的解释和解决方案

82、cep 规则如图,当 start 事件进入时,时间 00:00:15,而后进入 end 事件,时间 00:00:40。我发现规则无法命中。请问 within 是从 start 事件开始计时?还是跟 window 一样根据系统时间划分的?如果是后者,请问怎么配置才能从 start 开始计时?

83、Flink 聚合结果直接写 Mysql 的幂等性设计问题

84、Flink job 打开了 checkpoint,用的 rocksdb,通过观察 hdfs 上 checkpoint 目录,为啥算副本总量会暴增爆减

85、[Flink 提交任务的 jar 包可以指定路径为 HDFS 上的吗]()

86、在 flink web Ui 上提交的任务,设置的并行度为 2,flink 是 stand alone 部署的。两个任务都正常的运行了几天了,今天有个地方逻辑需要修改,于是将任务 cancel 掉(在命令行 cancel 也试了),结果 taskmanger 挂掉了一个节点。后来用其他任务试了,也同样会导致节点挂掉

87、一个配置动态更新的问题折腾好久(配置用个静态的 map 变量存着,有个线程定时去数据库捞数据然后存在这个 map 里面更新一把),本地 idea 调试没问题,集群部署就一直报 空指针异常。下游的算子使用这个静态变量 map 去 get key 在集群模式下会出现这个空指针异常,估计就是拿不到 map

88、批量写入 MySQL,完成 HBase 批量写入

89、用 flink 清洗数据,其中要访问 redis,根据 redis 的结果来决定是否把数据传递到下流,这有可能实现吗?

90、监控页面流处理的时候这个发送和接收字节为 0。

91、[sink 到 MySQL,如果直接用 idea 的话可以运行,并且成功,大大的代码上面用的 FlinkKafkaConsumer010,而我的 Flink 版本为 1.7,kafka 版本为 2.12,所以当我用 FlinkKafkaConsumer010 就有问题,于是改为

FlinkKafkaConsumer 就可以直接在 idea 完成 sink 到 MySQL,但是为何当我把该程序打成 Jar 包,去运行的时候,就是报 FlinkKafkaConsumer 找不到呢](https://t.zsxq.com/MN7iuZf)

92、SocketTextStreamWordCount 中输入中文统计不出来,请问这个怎么解决,我猜测应该是需要修改一下代码,应该是这个例子默认统计英文

93、Flink 应用程序本地 ide 里面运行的时候并行度是怎么算的?

94、请问下 flink 中对于窗口的全量聚合有 apply 和 process 两种 他们有啥区别呢

95、不知道大大熟悉 Hbase 不,我想直接在 Hbase 中查询某一列数据,因为有重复数据,所以想使用 distinct 统计实际数据量,请问 Hbase 中有没有类似于 sql 的 distinct 关键字。如果没有,想实现这种可以不?

96、来分析一下现在 Flink,Kafka 方面的就业形势,以及准备就业该如何准备的这方面内容呢?

97、大佬知道 flink 的 dataStream 可以转换为 dataSet 吗?因为数据需要 11 分钟一个批次计算五六个指标,并且涉及好几步 reduce,计算的指标之间有联系,用 Stream 卡住了。

98、1. 如何在同一窗口内实现多次的聚合,比如像 spark 中的这样 2. 多个实时流的 jion 可以用 window 来处理一批次的数据吗?

99、写的批处理的功能,现在本机跑是没问题的,就是在 linux 集群上出现了问题,就是不知道如果通过本地调用远程 jar 包然后传参数和拿到结果参数返回本机

100、我用 standalone 开启一个 flink 集群,上传 flink 官方用例 Socket Window WordCount 做测试,开启两个 parallelism 能正常运行,但是开启 4 个 parallelism 后出现错误

101、有使用 AssignerWithPunctuatedWatermarks 的案例 Demo 吗?网上找了都是 AssignerWithPeriodicWatermarks 的,不知道具体怎么使用?

102、有一个 datastream(从文件读取的),然后我用 flink sql 进行计算,这个 sql 是一个加总的运算,然后通过 retractStreamTableSink 可以把文件做 sql 的结果输出到文件吗?这个输出到文件的接口是用什么呢?

103、为啥 split 这个流设置为过期的

104、需要使用 flink table 的水印机制控制时间的乱序问题,这种场景下我就使用水印 + 窗口了,我现在写的 demo 遇到了问题,就是在把触发计算的窗口 table(WindowedTable)转换成 table 进行 sql 操作时发现窗口中的数据还是乱序的,是不是 flink table 的 WindowedTable 不支持水印窗口转 table-sql 的功能

105、Flink 对 SQL 的重视性

106、flink job 打开了 checkpoint,任务跑了几个小时后就出现下面的错,截图是打出来的日志,有个 OOM,又遇到过的没?

107、本地测试是有数据的,之前该任务放在集群也是有数据的,可能提交过多次,现在读不到数据了 group id 也换过了,只能重启集群解决么?

108、使用 flink 清洗数据存到 es 中,直接在 flatmap 中对处理出来的数据用 es 自己的 ClientInterface 类直接将数据存入 es 当中,不走 sink,这样的处理逻辑是不是会有问题。

108、flink 从 kafka 拿数据(即增量数据)与存量数据进行内存聚合的需求,现在有一个方案就是程序启动的时候先用 flink table 将存量数据加载到内存中创建 table 中,然后将 stream 的增量数据与 table 的数据进行关联聚合后输出结束,不知道这种方案可行么。目前个人认为有两个主要问题:1 是增量数据 stream 转化成 append table 后不知道能与存量的 table 关联聚合不,2 是聚合后输出的结果数据是否过于频繁造成网络传输压力过大

109、设置时间时间特性有什么区别呢, 分别在什么场景下使用呢? 两种设置时间延迟有什么区别呢 , 分别在什么场景下使用

110、flink 从 rabbitmq 中读取数据,设置了 rabbitmq 的 CorrelationDataId 和 checkpoint 为 EXACTLY_ONCE;如果 flink 完成一次 checkpoint 后,在这次 checkpoint 之前消费的数据都会从 mq 中删除。如果某次 flink 停机更新,那就会出现 mq 中的一些数据消费但是处于 Unacked 状态。在 flink 又重新开启后这批数据又会重新消费。那这样是不是就不能保证 EXACTLY_ONCE 了

111、1. 在 Flink checkpoint 中, 像 operator 的状态信息 是在设置了 checkpoint 之后自动的进行快照吗 ?2. 上面这个和我们手动存储的 Keyed State 进行快照(这个应该是增量快照)

112、现在有个实时商品数,交易额这种统计需求,打算用 flink 从 kafka 读取 binglog 日志进行计算,但 binglog 涉及到 insert 和 update 这种操作时 怎么处理才能统计准确,避免那种重复计算的问题?

113、我这边用 flink 做实时监控,功能很简单,就是每条消息做 keyby 然后三分钟窗口,然后做些去重操作,触发阈值则报警,现在问题是同一个时间窗口同一个人的告警会触发两次,集群是三台机器,standalone cluster,初步结果是三个算子里有两个收到了同样的数据

114、在使用 WaterMark 的时候,默认是每 200ms 去设置一次 watermark,那么每个 taskmanager 之间,由于得到的数据不同,所以往往产生的最大的 watermark 不同。那么这个时候,是各个 taskmanager 广播这个 watermark,得到全局的最大的 watermark,还是说各个 taskmanager 都各自用自己的 watermark。主要没看到广播 watermark 的源码。不知道是自己观察不仔细还是就是没有广播这个变量。

115、现在遇到一个需求,需要在 job 内部定时去读取 redis 的信息,想请教 flink 能实现像普通程序那样的定时任务吗?

116、有个触发事件开始聚合,等到数量足够,或者超时则 sink 推 mq 环境 flink 1.6 用了 mapState 记录触发事件 1 数据足够这个 OK 2 超时 state ttl 1.6 支持,但是问题来了,如何在超时时候增加自定义处理?

117、请问 impala 这种 mpp 架构的 sql 引擎,为什么稳定性比较差呢?

118、watermark 跟并行度相关不是,过于全局了,期望是 keyby 之后再针对每个 keyed stream 打 watermark,这个有什么好的实践呢?

119、请问如果把一个文件的内容读取成 datastream 和 dataset,有什么区别吗??他们都是一条数据一条数据的被读取吗?

120、有没有 kylin 相关的资料,或者调优的经验?

121、flink 先从 jdbc 读取配置表到流中,另外从 kafka 中新增或者修改这个配置,这个场景怎么把两个流一份配置流?我用的 connect, 接着发不成广播变量,再和实体流合并,但在合并时报 Exception in thread “main” java.lang.IllegalArgumentException

122、Flink exactly-once,kafka 版本为 0.11.0,sink 基于 FlinkKafkaProducer011 每五分钟一次 checkpoint,但是 checkpoint 开始后系统直接卡死,at-lease-once 一分钟能完成的 checkpoint,现在十分钟无法完成没进度还是 0,不知道哪里卡住了

123、flink 的状态是默认存在于内存的(也可以设置为 rocksdb 或 hdfs),而 checkpoint 里面是定时存放某个时刻的状态信息,可以设置 hdfs 或 rocksdb 是这样理解的吗?

124、Flink 异步 IO 中,下图这两种有什么区别?为啥要加 CompletableFuture.supplyAsync,不太明白?

125、flink 的状态是默认存在于内存的(也可以设置为 rocksdb 或 hdfs),而 checkpoint 里面是定时存放某个时刻的状态信息,可以设置 hdfs 或 rocksdb 是这样理解的吗?

126、有个计算场景,从 kafka 消费两个数据源,两个数据结构都有时间段概念,计算需要做的是匹配两个时间段,匹配到了,就生成一条新的记录。请问使用哪个工具更合适,flink table 还是 cep?请大神指点一下 我这边之前的做法,将两个数据流转为 table. 两个 table over window 后 join 成新的表。结果 job 跑一会就 oom.

127、一个互联网公司,或者一个业务系统,如果想做一个全面的监控要怎么做?有什么成熟的方案可以参考交流吗?有什么有什么度量指标吗?

128、怎么深入学习 flink, 或者其他大数据组件,能为未来秋招找一份大数据相关(计算方向)的工作增加自己的竞争力?

129、oppo 的实时数仓,其中明细层和汇总层都在 kafka 中,他们的关系库的实时数据也抽取到 kafka 的 ods,那么在构建数仓的,需要 join 三四个大业务表,业务表会变化,那么是大的业务表是从 kafka 的 ods 读取吗?实时数仓,多个大表 join 可以吗

130、Tuple 类型有什么方法转换成 json 字符串吗?现在的场景是,结果在存储到 sink 中时希望存的是 json 字符串,这样应用程序获取数据比较好转换一点。如果 Tuple 不好转换 json 字符串,那么应该以什么数据格式存储到 sink 中

140、端到端的数据保证,是否意味着中间处理程序中断,也不会造成该批次处理失败的消息丢失,处理程序重新启动之后,会再次处理上次未处理的消息

141、关于 flink datastream window 相关的。比如我现在使用滚动窗口,统计一周内去重用户指标,按照正常 watermark 触发计算,需要等到当前周的 window 到达 window 的 endtime 时,才会触发,这样指标一周后才能产出结果。我能不能实现一小时触发一次计算,每次统计截止到当前时间,window 中所有到达元素的去重数量。

142、FLIP-16 Loop Fault Tolerance 是讲现在的 checkpoint 机制无法在 stream loop 的时候容错吗?现在这个问题解决了没有呀?

143、现在的需求是,统计各个 key 的今日累计值,一分钟输出一次。如,各个用户今日累计点击次数。这种需求用 datastream 还是 table API 方便点?

144、本地 idea 可以跑的工程,放在 standalone 集群上,总报错,报错截图如下,大佬请问这是啥原因

145、比如现在用 k8s 起了一个 flink 集群,这时候数据源 kafka 或者 hdfs 会在同一个集群上吗,还是会单独再起一个 hdfs/kafka 集群

146、flink kafka sink 的 FlinkFixedPartitioner 分配策略,在并行度小于 topic 的 partitions 时,一个并行实例固定的写消息到固定的一个 partition,那么就有一些 partition 没数据写进去?

147、[基于事件时间,每五分钟一个窗口,五秒钟滑动一次,同时 watermark 的时间同样是基于事件事件时间的,延迟设为 1 分钟,假如数据流从 12:00 开始,如果 12:07-12:09 期间没有产生任何一条数据,即在 12:07-12:09 这段间的数据流情况为····(12:07:00,xxx),(12:09:00,xxx)······,那么窗口 [12:02:05-12:07:05],[12:02:10-12:07:10] 等几个窗口的计算是否意味着只有等到,12:09:00 的数据到达之后才会触发](https://t.zsxq.com/fmq3fYF)

148、使用 flink1.7,当消费到某条消息 (protobuf 格式),报 Caused by: org.apache.kafka.common.KafkaException: Record batch for partition Notify-18 at offset 1803009 is invalid, cause: Record is corrupt 这个异常。如何设置跳过已损坏的消息继续消费下一条来保证业务不终断?我看了官网 kafka connectors 那里,说在 DeserializationSchema.deserialize(…) 方法中返回 null,flink 就会跳过这条消息,然而依旧报这个异常

149、是否可以抽空总结一篇 Flink 的 watermark 的原理案例?一直没搞明白基于事件时间处理时的数据乱序和数据迟到底咋回事

150、flink 中 rpc 通信的原理,与几个类的讲解,有没有系统详细的文章样,如有求分享,谢谢

151、Flink 中如何使用基于事件时间处理,但是又不使用 Watermarks? 我在会话窗口中使用遇到一些问题,图一是基于处理时间的,测试结果 session 是基于 keyby(用户)的,图二是基于事件时间的,不知道是我用法不对还是怎么的,测试结果发现并不是基于 keyby(用户的),而是全局的 session。不知道怎么修改?

152、flink 实时计算平台,yarn 模式日志收集怎么做,为什么会 checkpoint 失败,报警处理,后需要做什么吗?job 监控怎么做

153、有 flink 与 jstorm 的在不同应用场景下, 性能比较的数据吗? 从网络上能找大部分都是 flink 与 storm 的比较. 在 jstorm 官网上有一份比较的图表, 感觉参考意义不大, 应该是比较早的 flink 版本.

154、为什么使用 SessionWindows.withGap 窗口的话,State 存不了东西呀,每次加 1,拿出来都是 null, 我换成 TimeWindow 就没问题。

155、请问一下,flink datastream 流处理怎么统计去重指标?官方文档中只看到批处理有 distinct 概念。

156、好全的一篇文章,对比分析 Flink,Spark Streaming,Storm 框架

157、关于 structured_streaming 的 paper

158、zookeeper 集群切换领导了,flink 集群项目重启了就没有数据的输入和输出了,这个该从哪方面入手解决?

159、我想请教下 datastream 怎么和静态数据 join 呢

160、时钟问题导致收到了明天的数据,这时候有什么比较好的处理方法?看到有人设置一个最大的跳跃阈值,如果当前数据时间 – 历史最大时间 超过阈值就不更新。如何合理的设计水印,有没有一些经验呢?

161、大佬们 flink 怎么定时查询数据库?

162、现在我们公司有个想法,就是提供一个页面,在页面上选择 source sink 填写上 sql 语句,然后后台生成一个 flink 的作业,然后提交到集群。功能有点类似于华为的数据中台,就是页面傻瓜式操作。后台能自动根据相应配置得到结果。请问拘你的了解,可以实现吗?如何实现?有什么好的思路。现在我无从下手

163、请教一下 flink on yarn 的 ha 机制

164、在一般的流处理以及 cep, 都可以对于 eventtime 设置 watermark, 有时可能需要设置相对大一点的值, 这内存压力就比较大, 有没有办法不应用 jvm 中的内存, 而用堆外内存, 或者其他缓存, 最好有 cache 机制, 这样可以应对大流量的峰值.

165、请教一个 flink sql 的问题。我有两个聚合后的流表 A 和 B,A 和 Bjoin 得到 C 表。在设置 state TTL 的时候是直接对 C 表设置还是,对 A 表和 B 表设置比较好?

166、spark 改写为 flink,会不会很复杂,还有这两者在 SQL 方面的支持差别大吗?

167、请问 flink allowedLateness 导致窗口被多次 fire,最终数据重复消费,这种问题怎么处理,数据是写到 es 中

168、设置 taskmanager.numberOfTaskSlots: 4 的时候没有问题,但是 cpu 没有压上去,只用了 30% 左右,于是设置了 taskmanager.numberOfTaskSlots: 8,但是就报错误找不到其中一个自定义的类,然后 kafka 数据就不消费了。为什么?cpu 到多少合适?slot 是不是和 cpu 数量一致是最佳配置?kafka 分区数多少合适,是不是和 slot,parallesim 一致最佳?

169、需求是根据每条日志切分出需要 9 个字段,有五个指标再根据 9 个字段的不同组合去做计算。第一个方法是:我目前做法是切分的 9 个字段开 5 分钟大小 1 分钟计算一次的滑动窗口窗口,进行一次 reduce 去重,然后再 map 取出需要的字段,然后过滤再开 5 分钟大小 1 分钟计算一次的滑动窗口窗口进行计算保存结果,这个思路遇到的问题是上一个滑动窗口会每一分钟会计算 5 分钟数据,到第二个窗口划定的 5 分钟范围的数据会有好多重复,这个思路会造成数据重复。第二个方法是:切分的 9 个字段开 5 分钟大小 1 分钟计算一次的滑动窗口窗口,再 pross 方法里完成所有的过滤,聚合计算,但是再高峰期每分钟 400 万条数据,这个思路担心在高峰期 flink 计算不过来

170、a,b,c 三个表,a 和 c 有 eventtime,a 和 c 直接 join 可以,a 和 b join 后再和 c join 就会报错,这是怎么回事呢

171、自定义的 source 是这样的(图一所示)使用的时候是这样的(图二所示),为什么无论 sum.print().setParallelism(2)(图 2 所示)的并行度设置成几最后结果都是这样的

172、刚接触 flink,如有问的不合适的地方,请见谅。1、为什么说 flink 是有状态的计算?2、这个状态是什么?3、状态存在哪里

173、这边用 flink 1.8.1 的版本,采用 flink on yarn,hadoop 版本 2.6.0。代码是一个简单的滚动窗口统计函数,但启动的时候报错,如下图片。(2)然后我把 flink 版本换成 1.7.1,重新提交到 2.6.0 的 yarn 平台,就能正常运行了。(3)我们测试集群 hadoop 版本是 3.0,我用 flink 1.8.1 版本将这个程序再次打包,提交到 3.0 版本的 yarn 平台,也能正常运行。貌似是 flink 1.8.1 版本与 yarn 2.6.0 版本不兼容造成的这个问题

174、StateBackend 我使用的是 MemoryStateBackend,State 是怎么释放内存的,例如我在函数中用 ValueState 存储了历史状态信息。但是历史状态数据我没有手动释放,那么程序会自动释放么?还是一直驻留在内存中

175、请问老师是否可以提供一些 Apachebeam 的学习资料 谢谢

176、flink 的 DataSet 或者 DataStream 支持索引查询以及删除吗,像 spark rdd,如果不支持的话,该转换成什么

177、关于 flink 的状态,能否把它当做数据库使用,类似于内存数据库,在处理过程中存业务数据。如果是数据库可以算是分布式数据库吗? 是不是使用 rocksdb 这种存储方式才算是? 支持的单库大小是不是只是跟本地机器的磁盘大小相关? 如果使用硬盘存储会不会效率性能有影响

178、我这边做了个 http sink,想要批量发送数据,不过现在只能用数量控制发送,但最后的几个记录没法触发发送动作,想问下有没有什么办法

179、请问下如何做定时去重计数,就是根据时间分窗口,窗口内根据 id 去重计数得出结果,多谢。试了不少办法,没有简单直接办法

180、我有个 job 使用了 elastic search sink. 设置了批量 5000 一写入,但是看 es 监控显示每秒只能插入 500 条。是不是 bulkprocessor 的 currentrequest 为 0 有关

181、有 docker 部署 flink 的资料吗

182、在说明 KeyBy 的 StreamGraph 执行过程时,keyBy 的 ID 为啥是 6?根据前面说,ID 是一个静态变量,每取一次就递增 1,我觉得应该是 3 啊,是我理解错了吗

183、有没计划出 Execution Graph 的远码解析

184、可以分享下物理执行图怎样划分 task,以及 task 如何执行,还有他们之间数据如何传递这块代码嘛?

185、Flink 源码和这个学习项目的结构图

186、请问 flink1.8,如何做到动态加载外部 udf-jar 包呢?

187、同一个 Task Manager 中不同的 Slot 是怎么交互的,比如:source 处理完要传递给 map 的时候,如果在不同的 Slot 中,他们的内存是相互隔离,是怎么交互的呢?我猜是通过序列化和反序列化对象,并且通过网络来进行交互的

188、你们有没有这种业务场景。flink 从 kafka 里面取数据,每一条数据里面有 mongdb 表 A 的 id, 这时我会在 map 的时候采用 flink 的异步 IO 连接 A 表,然后查询出 A 表的字段 1,再根据该字段 1 又需要异步 IO 去 B 表查询字段 2,然后又根据字段 2 去 C 表查询字段 3 ….. 像这样的业务场景,如果多来几种逻辑,我应该用什么方案最好呢

189、今天本地运行 flink 程序,消费 socket 中的数据,连续只能消费两条,第三条 flink 就消费不了了

190、源数据经过过滤后分成了两条流,然后再分别提取事件时间和水印,做时间窗口,我测试时一条流没有数据,另一条的数据看日志到了窗口操作那边就没走下去,貌似窗口一直没有等到触发

191、有做 flink cep 的吗,有资料没?

192、麻烦问一下 BucketingSink 跨集群写,如果任务运行在 hadoop A 集群,从 kafka 读取数据处理后写到 Hadoo B 集群,即使把 core-site.xml 和 hdfs-site.xml 拷贝到代码 resources 下,路径使用 hdfs://hadoopB/xxx,会提示 ava.lang.RuntimeException: Error while creating FileSystem when initializing the state of the BucketingSink.,跨集群写这个问题 flink 不支持吗?

193、想咨询下,如何对 flink 中的 datastream 和 dataset 进行数据采样

194、一个 flink 作业经常发生 oom,可能是什么原因导致的。处理流程只有 15+ 字段的解析,redis 数据读取等操作,TM 配置 10g。业务会在夜间刷数据,qps 能打到 2500 左右~

195、我看到 flink 1.8 的状态过期仅支持 Processing Time,那么如果我使用的是 Event time 那么状态就不会过期吗

196、请问我想每隔一小时统计一个属性从当天零点到当前时间的平均值,这样的时间窗该如何定义?

197、flink 任务里面反序列化一个类,报 ClassNotFoundException,可是包里面是有这个类的,有遇到这种情况吗?

198、在构造 StreamGraph,类似 PartitionTransformmation 这种类型的 transform,为什么要添加成一个虚拟节点,而不是一个实际的物理节点呢?

199、flink 消费 kafka 的数据写入到 hdfs 中,我采用了 BucketingSink 这个 sink 将 operator 出来的数据写入到 hdfs 文件上,并通过在 hive 中建外部表来查询这个。但现在有个问题,处于 in-progress 的文件,hive 是无法识别出来该文件中的数据,可我想能在 hive 中实时查询进来的数据,且不想产生很多的小文件,这个该如何处理呢

200、采用 Flink 单机集群模式一个 jobmanager 和两个 taskmanager,机器是单机是 24 核,现在做个简单的功能从 kafka 的一个 topic 转满足条件的消息到另一个 topic,topic 的分区是 30,我设置了程序默认并发为 30,现在每秒消费 2w 多数据,不够快,请问可以怎么提高 job 的性能呢?

201、Flink Metric 源码分析

等等等,还有很多,复制粘贴的我手累啊 ????

另外里面还会及时分享 Flink 的一些最新的资料(包括数据、视频、PPT、优秀博客,持续更新,保证全网最全,因为我知道 Flink 目前的资料还不多)

关于自己对 Flink 学习的一些想法和建议

Flink 全网最全资料获取,持续更新,点击可以获取

再就是星球用户给我提的一点要求:不定期分享一些自己遇到的 Flink 项目的实战,生产项目遇到的问题,是如何解决的等经验之谈!

1、如何查看自己的 Job 执行计划并获取执行计划图

2、当实时告警遇到 Kafka 千万数据量堆积该咋办?

3、如何在流数据中比两个数据的大小?多种解决方法

4、kafka 系列文章

5、Flink 环境部署、应用配置及运行应用程序

6、监控平台该有架构是长这样子的

7、《大数据“重磅炸弹”——实时计算框架 Flink》专栏系列文章目录大纲

8、《大数据“重磅炸弹”——实时计算框架 Flink》Chat 付费文章

9、Apache Flink 是如何管理好内存的?

10、Flink On K8s

11、Flink-metrics-core

12、Flink-metrics-datadog

13、Flink-metrics-dropwizard

14、Flink-metrics-graphite

15、Flink-metrics-influxdb

16、Flink-metrics-jmx

17、Flink-metrics-slf4j

18、Flink-metrics-statsd

19、Flink-metrics-prometheus

当然,除了更新 Flink 相关的东西外,我还会更新一些大数据相关的东西,因为我个人之前不是大数据开发,所以现在也要狂补些知识!总之,希望进来的童鞋们一起共同进步!

1、Java 核心知识点整理.pdf

2、假如我是面试官,我会问你这些问题

3、Kafka 系列文章和学习视频

4、重新定义 Flink 第二期 pdf

5、GitChat Flink 文章答疑记录

6、Java 并发课程要掌握的知识点

7、Lightweight Asynchronous Snapshots for Distributed Dataflows

8、Apache Flink™- Stream and Batch Processing in a Single Engine

9、Flink 状态管理与容错机制

10、Flink 流批一体的技术架构以及在阿里 的实践

11、Flink Checkpoint- 轻量级分布式快照

12、Flink 流批一体的技术架构以及在阿里 的实践

13、Stream Processing with Apache Flink pdf

14、Flink 结合机器学习算法的监控平台实践

15、《大数据重磅炸弹 - 实时计算 Flink》预备篇——大数据实时计算介绍及其常用使用场景 pdf 和 视频

16、《大数据重磅炸弹 - 实时计算 Flink》开篇词 pdf 和 视频

17、四本 Flink 书

18、流处理系统 的相关 paper

19、Apache Flink 1.9 特性解读

20、打造基于 Flink Table API 的机器学习生态

21、基于 Flink on Kubernetes 的大数据平台

22、基于 Apache Flink 的高性能机器学习算法库

23、Apache Flink 在快手的应用与实践

24、Apache Flink-1.9 与 Hive 的兼容性

25、打造基于 Flink Table API 的机器学习生态

26、流处理系统 的相关 paper 原文出处:zhisheng 的博客,欢迎关注我的公众号:zhisheng

退出移动版