共计 3256 个字符,预计需要花费 9 分钟才能阅读完成。
只有顺应版本, 才能成就王者不败神话
也是能否用好 Kafka 的关键。
不论是哪种 Kafka,本质上都基于 core Apache Kafka
那就来说说 Apache Kafka 版本号的问题
1 缘何 ” 在乎 ” 你这版本号
直接使用最新版本不就好了吗?
当然了! 这的确是一种有效策略,这种策略并非在任何场景下都适用
如果不了解各个版本之间的差异和功能变化,怎么能够准确地评判某 Kafka 版本是不是满足你的业务需求呢?
因此在深入学习 Kafka 之前,花些时间搞明白版本演进,实际上是非常划算的一件事。
2 版本的命名
当前 Apache Kafka 已经更迭至 2.3
很多人对于 Kafka 的版本命名理解存在歧义
- 在官网上下载 Kafka 时,会看到这样的版本:
于是有些同学就会纳闷,难道 Kafka 版本号不是 2.11 或 2.12 吗?
并不呀,前面的版本号是编译 Kafka 源代码的 Scala 编译器的版本。Kafka 服务器端的代码完全由 Scala 语言编写,Scala 同时支持面向对象编程和函数式编程,用 Scala 写成的源代码编译之后也是普通的“.class”文件,因此我们说 Scala 是 JVM 系的语言.
事实上目前 Java 新推出的很多功能都是在不断向 Scala 语言靠近,比如 Lambda 表达式、函数式接口、val 变量等
Kafka 新版客户端代码完全由 Java 语言编写,于是有些人展开了“Java VS Scala”的大讨论,并从语言特性的角度尝试分析 Kafka 社区为什么放弃 Scala 转而使用 Java 重写客户端代码。
其实事情远没有那么复杂,仅仅是因为社区来了一批 Java 程序员而已,而以前老的 Scala 程序员隐退了
回到刚才的版本号讨论。现在你应该知道了对于 kafka-2.11-2.3.0 的说法,真正的 Kafka 版本号实际上是 2.3.0
- 前面的
2
表示大版本号,即 Major Version - 中间的
3
表示小版本号或次版本号,即 Minor Version - 最后的
0
表示修订版本号,也就是 Patch 号
Kafka 社区在发布 1.0.0 版本后特意写过一篇文章,宣布 Kafka 版本命名规则正式从 4 位演进到 3 位,比如 0.11.0.0 版本就是 4 位版本号。
像 0.11.0.0 这样的版本虽然有 4 位版本号,但其实它的大版本是 0.11,而不是 0,所以如果这样来看的话 Kafka 版本号从来都是由 3 个部分构成,即“大版本号 – 小版本号 – Patch 号”。这种视角可以一统 Kafka 版本命名
假设碰到的 Kafka 版本是 0.10.2.2,你现在就知道了它的大版本是 0.10,小版本是 2,总共打了两个大的补丁,Patch 号是 2
3 Kafka 版本演进
Kafka 目前总共演进了 7 个大版本,分别是 0.7、0.8、0.9、0.10、0.11、1.0 和 2.0
3.1 版本代号:0.7
“上古”版本,很多人都没触过
- 引入取决于空间的保留设置
- 添加可选的 mx4j 支持以通过 http 公开 jmx
- 在 Kafka 中介绍压缩功能
- 提供默认生产者,用于接收来自 STDIN 的消息
- 通过 MBean 公开总指标
- 将 python 生产者升级到新的消息格式版本
- 公开 JMX 操作以动态设置记录器级别
- 基于时间的日志段推出
该版本只提供最基础的消息队列功能,连副本机制都没有!
3.2 版本代号:0.8
- kafka 集群内副本支持
- 支持多个数据目录
- 在 kafka asynchonous 中进行请求处理
- 改进 Kafka 内部指标
- 添加 ’log.file.age’ 配置参数以在日志文件达到特定年龄后强制轮换它们
- 公开 JMX 操作以动态设置记录器级别
- 基于时间的日志段推出
- 为 Log 子系统添加 Performance Suite
在 zk 使用者中修复压缩消息的 commit()
正式引入了 副本机制,至此 Kafka 成为了一个真正意义上完备的分布式高可靠消息队列解决方案。
有了副本机制,Kafka 能比较好地做到消息无丢失
那时生产和消费消息使用的还是老版本客户端 API
所谓的老版本是指当用它们的 API 开发生产者和消费者应用时
需要指定 ZooKeeper 的地址而非 Broker 的地址
老版生产者 API,默认使用同步方式发送消息,可想而知其吞吐量不会高
虽然它也支持异步的方式,但实际场景中可能会造成消息的丢失
- 因此 0.8.2.0 版本社区引入了
新版本 Producer API
即需要指定 Broker 地址的 Producer。
建议是尽量使用比较新的版本
3.3 版本代号:0.9
0.9 大版本增加了基础的安全认证 / 权限功能,同时使用 Java 重写了新版本消费者 API,另外还引入了 Kafka Connect 组件用于实现高性能的数据抽取
新版本 Producer API 在这个版本中算比较稳定了
如果你使用 0.9 作为线上环境不妨切换到新版本 Producer,这是此版本一个不太为人所知的优势。但和 0.8.2 引入新 API 问题类似,不要使用新版本 Consumer API,因为 Bug 超多的,绝对用到你崩溃。即使你反馈问题到社区,社区也不会管的,它会无脑地推荐你升级到新版本再试试,因此千万别用 0.9 的新版本 Consumer API。对于国内一些使用比较老的 CDH 的创业公司,鉴于其内嵌的就是 0.9 版本,所以要格外注意这些问题。
3.4 版本代号:0.10
该版本引入了 Kafka Streams
Kafka 正式升级成分布式流处理平台,虽然此时的 Kafka Streams 还基本不能线上部署使用
0.10 大版本包含两个小版本:0.10.1 和 0.10.2,它们的主要功能变更都是在 Kafka Streams 组件上
如果你把 Kafka 用作消息引擎,实际上该版本并没有太多的功能提升
自 0.10.2.2 版本起,新版本 Consumer API 算是比较稳定了。如果你依然在使用 0.10 大版本,我强烈建议你至少升级到 0.10.2.2 然后使用新版本 Consumer API
0.10.2.2 修复了一个可能导致 Producer 性能降低的 Bug。基于性能的缘故你也应该升级到 0.10.2.2。
3.5 版本代号:0.11
幂等性 Producer / 事务(Transaction)API
对 Kafka 消息格式做了重构
Producer 实现幂等性以及支持事务都是 Kafka 实现流处理结果正确性的基石
没有它们,Kafka Streams 在做流处理时无法向批处理那样保证结果的正确性
当然同样是由于刚推出,此时的事务 API 有一些 Bug,不算十分稳定
另外事务 API 主要是为 Kafka Streams 应用服务的,实际使用场景中用户利用事务 API 自行编写程序的成功案例并不多见。
第二个重磅改进是消息格式的变化。虽然它对用户是透明的,但是它带来的深远影响将一直持续。因为格式变更引起消息格式转换而导致的性能问题在生产环境中屡见不鲜,所以你一定要谨慎对待 0.11 版本的这个变化。不得不说的是,这个版本中各个大功能组件都变得非常稳定了,国内该版本的用户也很多,应该算是目前最主流的版本之一了。也正是因为这个缘故,社区为 0.11 大版本特意推出了 3 个 Patch 版本,足见它的受欢迎程度
如果你对 1.0 版本是否适用于线上环境依然感到困惑,那么至少将你的环境升级到 0.11.0.3,因为这个版本的消息引擎功能已经非常完善了。
1.0 和 2.0 两个大版本主要还是 Kafka Streams 的各种改进,在消息引擎方面并未引入太多的重大功能特性
Kafka Streams 的确在这两个版本有着非常大的变化,也必须承认 Kafka Streams 目前依然还在积极地发展着
如果你是 Kafka Streams 的用户,至少选择 2.0.0 版本
基于 Kafka Streams 1.0 版本撰写的。用 2.0 版本去运行书中的例子,居然很多都已经无法编译了,足见两个版本变化之大。不过如果你在意的依然是消息引擎,那么这两个大版本都是适合于生产环境的。
不论你用的是哪个版本,都请尽量保持服务器端版本和客户端版本一致,否则你将损失很多 Kafka 为你提供的性能优化收益。
4 总结
每个 Kafka 版本都有它恰当的使用场景和独特的优缺点,切记不要一味追求最新版本
不要成为最新版本的“小白鼠”
了解了各个版本的差异之后,一定能够根据自己的实际情况作出最正确的选择