还是熟悉的面孔,还是熟悉的味道,不同的是,这次的配方升级了。
今年 10 月底,Spring Cloud 联合创始人 Spencer Gibb 在 Spring 官网的博客页面宣布:阿里巴巴开源 Spring Cloud Alibaba,并发布了首个预览版本。随后,Spring Cloud 官方 Twitter 也发布了此消息。- 传送门
时隔 51 天,Spencer Gibb 再次在 Spring 官网的博客页面宣布:Spring Cloud Alibaba 发布了其开源后的第二个版本 0.2.1,随后,Spring Cloud 官方 Twitter 也转发了此消息。圣诞节的前一周,Josh Long 向他的老朋友许晓斌发来贺电:
小编翻译:听闻阿里巴巴官方宣布使用 Spring Cloud,我开心的一晚上没睡着,下周三我会在 Spring Tips 小视频里介绍 Spring Cloud Alibaba。
圣诞快乐,老哥!
爱你
视频地址
新版本概要
增加了两个新的模块,spring-cloud-alibaba-schedulerx 和 spring-cloud-stream-binder-rocketmq。
在 spring-cloud-alibaba-nacos 和 spring-cloud-alibaba-sentinel 中增加了一些新的 feature。
修复了之前版本的一些 bug。
注意: 版本 0.2.1.RELEASE 对应的是 Spring Cloud Finchley 的版本。这次发布也包含了一个适配 Spring Cloud Edgware 的版本 0.1.1.RELEASE,版本 0.1.1.RELEASE 也包含了 0.2.1.RELEASE 中新增的组件和特性。
Spring Cloud Alibaba RocketMQ
适配了 spring cloud stream 对于 message 抽象的 API。
支持事务消息。
Consumer 端支持以 tags、SQL 表达式过滤消息。支持顺序、并发以及广播消费模式。
Spring Cloud Alibaba SchedulerX
提供了秒级、精准、高可靠、高可用的定时任务调度服务。
提供了丰富的任务执行模型,包括单机执行,广播执行,以及子任务的分布式执行。
Spring Cloud Alibaba Nacos Config
将 Nacos Client 的版本升级到 0.6.2 版本。
支持从多个 dataid 和 groupid 中获取和监听配置,并支持优先级指定。
优化了 动态监听的逻辑,只有配置了动态刷新的配置项才会实时刷新。
Spring Cloud Alibaba Nacos Discovery
将 Nacos Client 的版本升级到 0.6.2 版本。
支持在 Nacos Console 端将服务实例设置成不可用状态,服务发现会自动过滤此节点。
支持服务发现在初始化时不使用本地缓存。
Spring Cloud Alibaba Sentinel
支持 Feign,兼容了 @FeignClient 所有的属性,包括 fallback、fallbackFactory。
支持 热点参数限流和集群限流。
重构了 ReadableDataSource 的设计,提供了更友好的配置 Sentinel 规则持久化的方式。
优化了 Sentinel 对于 RestTemplate 的降级后的处理。
调整并添加了一些 Sentinel 配置信息对应的属性,如日志目录,日志文件名等。
新版本背后的思考
Spring Cloud Alibaba Nacos Discovery
Nacos Discovery 在这个版本最大的更新就是支持在初始化的时候不使用本地文件缓存,目前初始化的时候已经默认不使用本地文件缓存。
为什么要有缓存?首先我们来了解一下本地缓存的概念,为什么需要这个本地缓存?
我们都知道,服务注册与发现应该只是服务调用中的辅助性的一个环节,而不是一个关键的环节。一个良好的服务注册与发现的设计,需要保证以下两点。
服务注册与发现只是旁路,不应该参与具体的调用过程。
在服务的运行过程中,即使服务注册中心偶然发生异常宕机后,也尽量不影响正常的业务调用。
要实现以上两点,缓存就不可或缺,而为了适应不同的场景,缓存又可以分成内存缓存和本地文件缓存,他们的概念和适用场景如下。
内存中的缓存
将服务提供者列表维护在内存中,每次调用时直接从内存中的列表获取节点即可。内存缓存通过定时任务更新,或者在收到服务注册中心的推送之后再更新。确保了即使在服务注册中心宕机的情况下,也能保证服务仍能正常调用。
本地文件缓存
将上述提到的内存中的缓存,保留在本地的某个文件中,这样在调用服务注册中心失败的时候,可以从本机的文件缓存中获取服务提供者列表。这样就保证了在服务注册中心宕机的情况下,应用在重启后也能找到服务提供者。
为什么要关闭有了以上背景知识后,读者可能会有疑问,既然缓存这么好,你们为什么默认要把它置为默认关闭呢?
我们在发布出第一个版本之后,很多用户反馈,为什么我服务下线之后还是有节点,仍旧可以被查询到呢?这样导致我这个监控数据完全不准,你们这个有 bug,完全不对。其实这是阿里巴巴在多年业务积累的经验,对于服务发现来说,一个即使是已经过时的节点,也比没有任何数据好。而且还有可能其实这个服务只是和服务注册中心失去了心跳,但是应用本身是正常的。
当然,这也暴露了我们设计中存在的一些问题,没有把服务发现本身,以及缓存的分层给做好,两者糅合在一块。所以在这一次的版本更新中我们还是选择适配开源标准,默认关闭了本地文件缓存,留了一个开关给用户自由选择。
Spring Cloud Alibaba Nacos Config
Nacos Config 在这个版本中有两个大的特性,支持了“共享配置”,修正了动态刷新的语义和行为。
共享配置的实现在第一个版本还没发布到时候,社区里对配置管理中心的讨论就没停止过,其中听到最多的反馈应该就是支持多个应用共享一个配置。我们也通过 github issue 的方式,征集了很多意见,详情见 #12 , #141。
后来我们将这个模型抽象了一下,认清这些需求本质是一个应用可以从多个 DataID 和 GroupID 组合中获取配置,并且这些配置还可以单独指定优先级和是否动态刷新。
最后我们推荐了这种使用方式,既保证了使用场景的灵活性,又保证了业务语义的明确性。更多详情可以参考 WIKI。
# config external configuration
# 1、Data Id 在默认的组 DEFAULT_GROUP, 不支持配置的动态刷新
spring.cloud.nacos.config.ext-config[0].data-id=ext-config-common01.properties
# 2、Data Id 不在默认的组,不支持动态刷新
spring.cloud.nacos.config.ext-config[1].data-id=ext-config-common02.properties
spring.cloud.nacos.config.ext-config[1].group=GLOBAL_GROUP
# 3、Data Id 既不在默认的组,也支持动态刷新
spring.cloud.nacos.config.ext-config[2].data-id=ext-config-common03.properties
spring.cloud.nacos.config.ext-config[2].group=REFRESH_GROUP
spring.cloud.nacos.config.ext-config[2].refresh=true
# 优先级关系: spring.cloud.nacos.config.ext-config[n].data-id 其中 n 的值越大,优先级越高。
注意 data-id 的值必须带文件扩展名,文件扩展名支持 properties、yaml 和 yml。通过这种自定义扩展的配置项,既可以支持一个应用从多个配置项中获取数据,也解决多个应用间配置共享的问题。
头脑风暴,@fudali 同学还提出了更加灵活的一种方式 #161,就是可以通过一个配置项来配置所有的 DataID 的信息,然后可以通过修改这个配置项,可以修改整体配置项的逻辑。
这是一个非常好的想法,只不过这一期中我们没有实现,原因是这种方式太灵活了。我们认为配置管理其实是一件很严肃的事情,太灵活导致生产中变更比较不可控。
虽然目前的逻辑也可以支持这种用法,但是我们并没有把这种模式当做推荐模式,后续如果社区有更多的反馈认为这是一个强烈的需求,欢迎提 PR。
动态刷新的修正简单好用、实时可监控的动态刷新也许是 Nacos Config 相对于其他开源中间件相比最核心的优势了,不同于 Spring Cloud Config Server 必须使用 Spring Cloud Bus 才能实现动态刷新,Nacos Config 无需依赖其他任何中间件就可以实现实时动态刷新,而且推送成功与否和刷新历史还支持实时查询。
但是我们发现在第一个版本中的实现发现两个问题:
动态刷新的实现方式不对:不应该直接调用 Context.refresh() 方法,而是应该 publish 一个 RefreshEvent。
是否动态刷新的语义有误:对于那些被标记为不动态刷新的配置项来说,只是修改他们的时候不会触发动态刷新。但是当其他支持动态刷新的配置项触发了动态刷新时,应用的 Context 仍旧会去获取那些被标记为不动态刷新的配置项的内容,也就意味着这些配置项有可能被连带刷新了。
在这个版本中,我们修复了这两个问题。
首先,动态刷新不再是直接去调用 ContextRefresher.refresh() 方法,而是 publish 了一个 RefreshEvent,让 spring-cloud-commons 里的 RefreshEventListener 去触发这个 ContextRefresher.refresh() 方法。
其次,我们修正了动态刷新的语义后,这一次是真正做到了,只有 refresh 属性为 true 的配置项,才会在运行的过程中变更为新的值,refresh 属性为 false 的配置项再也不用担心应用在运行的过程中发生莫名其妙的变更了。
更深入一点,在上个月 SpringOne Tour 中,我们和 Spring Cloud 的创始人 Spencer 聊到 Spring Cloud 的 Context.refresh() 成本太高,会刷新整个 Spring Context。他反复强调了两次 Context.refresh() 只对 @RefreshScope 和 @ConfigurationProperties 有效,成本一点也不高。
之前我们接收到很多社区的反馈都是 Nacos Config 动态刷新支不支持 xxxx,支不支持 xxxx。之前我们都是回答只支持 @RefreshScope 和 @ConfigurationProperties,如果他内置没有支持,那就得自己加上相应的注解。
今天我们可以很愉快地回复,他监听了 RefreshEvent 也能直接支持。而且如果添加 @RefreshScope 和 @ConfigurationProperties 都不满足你的需求时,可以通过实现自己的 RefreshEventListener 更多高级的玩法。
Spring Cloud Alibaba Sentinel
Sentinel 在这个版本中有三个大的特性:全面支持 FeignClient,完善了 RestTemplate 的支持,添加了热点限流、集群限流。
FeignClient 集成 Sentinel 其实在这之前,Sentinel 支持 FeignClient 已经设计了很久了,之前我们的想法做一个兼容性较强的方案,支持 Sentinel 和 Hystrix 在 FeignClient 中同时使用,尽量做到对原有应用的侵入性做到最小。
这个方案我们也思考调研了很久,但是实现难度确实比较大,需要修改 FeignClient 的代码才能实现两者共存。正好前段时间在 Spring Cloud 届最大的新闻就是 Hystrix 宣布不在维护了,于是我们就换了一个思路,直接使用 Sentinel 替代 Hystrix,不再去追求支持两者共存。
我们实现了自己的 Feign.Builder,在构建的 FeignClient 执行调用的过程中,通过 SentinelInvocationHandler 完成 Sentinel 的流量统计和保护的动作。如果想使用 Sentinel 为 FeignClient 限流降级,首先需要引入 sentinel-starter 的依赖,然后打开 Sentinel 限流降级的开关 feign.sentinel.enabled=true,就完成了 Sentinel 的接入。如果需要使用更加定制化的功能,则需要在 @FeignClient 添加 fallback 和 configuration 这些属性的配置。
注意 @FeignClient 注解中的所有属性,Sentinel 都做了兼容。
RestTemplate 集成 SentinelSpring Cloud Alibaba Sentinel 支持对 RestTemplate 的服务调用使用 Sentinel 进行保护,补全了 Hystrix 这一块的空白。接入的方式也不复杂,在构造 RestTemplate bean 的时候需要加上 @SentinelRestTemplate 注解,然后在控制台配置相应的规则即可。
在触发了限流降级时,默认的处理方式是返回 RestTemplate request block by sentinel 信息。
如果想自定义被限流之后的处理方式,还可以添加 blockHandlerClass,blockHandler 分别定制被限流后的处理类以及对于的处理方法。
如果想自定义被降级之后的处理方式,还可以添加 fallback,fallbackClass 分别定制被降级后的处理类以及对于的处理方法。
RestTemplate 的限流降级?Sentinel 也承包了!
热点参数限流和集群限流首先解释一下什么是热点参数限流和集群限流。
热点参数限流会统计传入参数中的热点参数,并根据配置的限流阈值与模式,对包含热点参数的资源调用进行限流。热点参数限流可以看做是一种特殊的流量控制,仅对包含热点参数的资源调用生效。
集群流控主要解决的问题是:当我们需要控制整个集群流量总量,但是单机流量可能会不均匀,如果是单机维度去限制的话会无法精确地限制总体流量,因此需要引入集群维度的流量控制。
Sentinel v1.4.0 的 新功能,也能第一时间愉快地在 Spring Cloud Alibaba 上使用了。
新组件
Spring Cloud Alibaba RocketMQ
Spring Cloud Stream 是一个用于构建基于消息的微服务应用框架,它基于 SpringBoot 来创建具有生产级别的单机 Spring 应用,并且使用 Spring Integration 与 Broker 进行连接。它提供了消息中间件的统一抽象,推出了 publish-subscribe、consumer groups、partition 这些统一的概念。
RocketMQ 是一款开源的分布式消息系统,基于高可用分布式集群技术,提供低延时的、高可靠的消息发布与订阅服务。具有以下特点:能够保证严格的消息顺序、提供丰富的消息拉取模式、高效的订阅者水平扩展能力、实时的消息订阅机制、亿级消息堆积能力。
在这次的 Spring Cloud Stream Binder RocketMQ 的实现中,我们适配了 Spring Cloud Stream 对于 message 抽象的 API,支持了 RocketMQ 的事务消息。消息订阅时支持以 tags、SQL 表达式过滤消息,同时还支持顺序、并发、延迟以及广播消费模式。
Spring Cloud Alibaba SchedulerX
SchedulerX 是阿里中间件团队开发的一款分布式任务调度产品,提供秒级、精准、高可靠、高可用的定时(基于 Cron 表达式)任务调度服务,同时提供分布式的任务执行模型,如网格任务,网格任务支持海量子任务均匀分配到所有 Worker(schedulerx-client)上执行。
简单易用的轻量分布式任务调度
您不需要关心调度逻辑,只需要在在 JobProcessor 接口的实现中添加业务逻辑即可,然后在自主运维控制台配置上一个 Job 即可完成使用。
高可用的分布式任务
不管是 SchedulerX 服务端还是客户端都是分布式架构设计,任务可以在多台客户端机器里的任何一台机器执行,如果客户端出现宕机的情况,服务端会自动选择正常运行的客户端去执行 Job,每个 Job 在服务端的不同机器均有备份,SchedulerX 服务端任意宕掉部分机器仍能保证 Job 正常调度。
友好的用户界面
SchedulerX 提供了非常友好的页面方便您创建、删除或修改 Job,提供了立即触发执行一次的功能,方便您测试以及关键时刻手动立即执行一次,还提供了历史执行记录查询的功能,您可以看到任何一个 Job 过去 100 次的历史执行记录。
功能强大提供了秒级、精准的定时任务调度服务,且提供了丰富的任务执行模型,包括单机执行,广播执行,以及子任务的分布式执行。
What’s Next?
Spring Cloud Alibaba Cloud SLS 针对日志类数据的一站式服务,在阿⾥巴巴集团经历大量大数据场景锤炼⽽成。您⽆需开发就能快捷地完成日志数据采集、消费、投递以及查询分析等功能,提升运维、运营效率,建立 DT 时代海量日志处理能力。
Spring Cloud Alibaba Dubbo Dubbo 是一款流行的开源 RPC 框架,我们会把 Dubbo 整合到 Spring Cloud Alibaba 中,让大家在开发 Dubbo 时也能享受到 Spring Cloud 带来的便利。
致谢 Spring Cloud Alibaba 从开源建设以来,受到了很多社区同学的关注。社区的每一个 issue,每一个 PR,都是对整个项目的帮助,都在为建设更好用的 Spring Cloud 添砖加瓦。
我们真心地感谢为这个项目提出过 Issue 和 PR 的同学,特别是这些 contributor:
HaojunRen、xiejiashuai、mengxiangrui007
我们希望有更多社区的同学加入进来,一起把项目做好。
还要特别感谢文档团队的倾芸,她帮忙将我们所有的 Reference Doc 翻译了英文,为 Spring Cloud Alibaba 的国际化进程铺平了道路。
亦盏,阿里巴巴中间件高级开发工程师,长期关注微服务领域,主要负责 Spring Cloud Alibaba 项目的开发和社区维护。
本文作者:中间件小哥阅读原文
本文为云栖社区原创内容,未经允许不得转载。