Java 单机限流可以使用 AtomicInteger,RateLimiter 或 Semaphore 来实现,但是上述方案都不支持集群限流。集群限流的应用场景有两个,一个是网关,常用的方案有 Nginx 限流和 Spring Cloud Gateway,另一个场景是与外部或者下游服务接口的交互,因为接口限制必须进行限流。
本文的主要内容为:
Redis 和 Lua 的使用场景和注意事项,比如说 KEY 映射的问题。
Spring Cloud Gateway 中限流的实现。
集群限流的难点
在上篇 Guava RateLimiter 的分析文章中,我们学习了令牌桶限流算法的原理,下面我们就探讨一下,如果将 RateLimiter 扩展,让它支持集群限流,会遇到哪些问题。
RateLimiter 会维护两个关键的参数 nextFreeTicketMicros 和 storedPermits,它们分别是下一次填充时间和当前存储的令牌数。当 RateLimiter 的 acquire 函数被调用时,也就是有线程希望获取令牌时,RateLimiter 会对比当前时间和 nextFreeTicketMicros,根据二者差距,刷新 storedPermits,然后再判断更新后的 storedPermits 是否足够,足够则直接返回,否则需要等待直到令牌足够(Guava RateLimiter 的实现比较特殊,并不是当前获取令牌的线程等待,而是下一个获取令牌的线程等待)。
由于要支持集群限流,所以 nextFreeTicketMicros 和 storedPermits 这两个参数不能只存在 JVM 的内存中,必须有一个集中式存储的地方。而且,由于算法要先获取两个参数的值,计算后在更新两个数值,这里涉及到竞态限制,必须要处理并发问题。
集群限流由于会面对相比单机更大的流量冲击,所以一般不会进行线程等待,而是直接进行丢弃,因为如果让拿不到令牌的线程进行睡眠,会导致大量的线程堆积,线程持有的资源也不会释放,反而容易拖垮服务器。
Redis 和 Lua
分布式限流本质上是一个集群并发问题,Redis 单进程单线程的特性,天然可以解决分布式集群的并发问题。所以很多分布式限流都基于 Redis,比如说 Spring Cloud 的网关组件 Gateway。
Redis 执行 Lua 脚本会以原子性方式进行,单线程的方式执行脚本,在执行脚本时不会再执行其他脚本或命令。并且,Redis 只要开始执行 Lua 脚本,就会一直执行完该脚本再进行其他操作,所以 Lua 脚本中不能进行耗时操作。使用 Lua 脚本,还可以减少与 Redis 的交互,减少网络请求的次数。
Redis 中使用 Lua 脚本的场景有很多,比如说分布式锁,限流,秒杀等,总结起来,下面两种情况下可以使用 Lua 脚本:
使用 Lua 脚本实现原子性操作的 CAS,避免不同客户端先读 Redis 数据,经过计算后再写数据造成的并发问题。
前后多次请求的结果有依赖时,使用 Lua 脚本将多个请求整合为一个请求。
但是使用 Lua 脚本也有一些注意事项:
要保证安全性,在 Lua 脚本中不要定义自己的全局变量,以免污染 Redis 内嵌的 Lua 环境。因为 Lua 脚本中你会使用一些预制的全局变量,比如说 redis.call()
要注意 Lua 脚本的时间复杂度,Redis 的单线程同样会阻塞在 Lua 脚本的执行中。
使用 Lua 脚本实现原子操作时,要注意如果 Lua 脚本报错,之前的命令无法回滚,这和 Redis 所谓的事务机制是相同的。
一次发出多个 Redis 请求,但请求前后无依赖时,使用 pipeline,比 Lua 脚本方便。
Redis 要求单个 Lua 脚本操作的 key 必须在同一个 Redis 节点上。解决方案可以看下文对 Gateway 原理的解析。
性能测试
Redis 虽然以单进程单线程模型进行操作,但是它的性能却十分优秀。总结来说,主要是因为:
绝大部分请求是纯粹的内存操作
采用单线程, 避免了不必要的上下文切换和竞争条件
内部实现采用非阻塞 IO 和 epoll,基于 epoll 自己实现的简单的事件框架。epoll 中的读、写、关闭、连接都转化成了事件,然后利用 epoll 的多路复用特性,绝不在 io 上浪费一点时间。
所以,在集群限流时使用 Redis 和 Lua 的组合并不会引入过多的性能损耗。我们下面就简单的测试一下,顺便熟悉一下涉及的 Redis 命令。
# test.lua 脚本的内容
local test = redis.call(“get”, “test”)
local time = redis.call(“get”, “time”)
redis.call(“setex”, “test”, 10, “xx”)
redis.call(“setex”, “time”, 10, “xx”)
return {test, time}
# 将脚本导入 redis,之后调用不需再传递脚本内容
redis-cli -a 082203 script load “$(cat test.lua)”
“b978c97518ae7c1e30f246d920f8e3c321c76907”
# 使用 redis-benchmark 和 evalsha 来执行 lua 脚本
redis-benchmark -a 082203 -n 1000000 evalsha b978c97518ae7c1e30f246d920f8e3c321c76907 0
======
1000000 requests completed in 20.00 seconds
50 parallel clients
3 bytes payload
keep alive: 1
93.54% <= 1 milliseconds
99.90% <= 2 milliseconds
99.97% <= 3 milliseconds
99.98% <= 4 milliseconds
99.99% <= 5 milliseconds
100.00% <= 6 milliseconds
100.00% <= 7 milliseconds
100.00% <= 7 milliseconds
49997.50 requests per second
通过上述简单的测试,我们可以发现本机情况下,使用 Redis 执行 Lua 脚本的性能极其优秀,一百万次执行,99.99% 在 5 毫秒以下。
本来想找一下官方的性能数据,但是针对 Redis + Lua 的性能数据较少,只找到了几篇个人博客,感兴趣的同学可以去探索。这篇文章有 Lua 和 zadd 的性能比较(具体数据请看原文,链接缺失的话,请看文末)。
以上 lua 脚本的性能大概是 zadd 的 70%-80%,但是在可接受的范围内,在生产环境可以使用。负载大概是 zadd 的 1.5- 2 倍,网络流量相差不大,IO 是 zadd 的 3 倍,可能是开启了 AOF,执行了三次操作。
Spring Cloud Gateway 的限流实现
Gateway 是微服务架构 Spring Cloud 的网关组件,它基于 Redis 和 Lua 实现了令牌桶算法的限流功能,下面我们就来看一下它的原理和细节吧。
Gateway 基于 Filter 模式,提供了限流过滤器 RequestRateLimiterGatewayFilterFactory。只需在其配置文件中进行配置,就可以使用。具体的配置感兴趣的同学自行学习,我们直接来看它的实现。
RequestRateLimiterGatewayFilterFactory 依赖 RedisRateLimiter 的 isAllowed 函数来判断一个请求是否要被限流抛弃。
public Mono<Response> isAllowed(String routeId, String id) {
//routeId 是 ip 地址,id 是使用 KeyResolver 获取的限流维度 id,比如说基于 uri,IP 或者用户等等。
Config routeConfig = loadConfiguration(routeId);
// 每秒能够通过的请求数
int replenishRate = routeConfig.getReplenishRate();
// 最大流量
int burstCapacity = routeConfig.getBurstCapacity();
try {
// 组装 Lua 脚本的 KEY
List<String> keys = getKeys(id);
// 组装 Lua 脚本需要的参数,1 是指一次获取一个令牌
List<String> scriptArgs = Arrays.asList(replenishRate + “”,
burstCapacity + “”, Instant.now().getEpochSecond() + “”, “1”);
// 调用 Redis,tokens_left = redis.eval(SCRIPT, keys, args)
Flux<List<Long>> flux = this.redisTemplate.execute(this.script, keys,
scriptArgs);
….. // 省略
}
static List<String> getKeys(String id) {
String prefix = “request_rate_limiter.{” + id;
String tokenKey = prefix + “}.tokens”;
String timestampKey = prefix + “}.timestamp”;
return Arrays.asList(tokenKey, timestampKey);
}
需要注意的是 getKeys 函数的 prefix 包含了 ”{id}”,这是为了解决 Redis 集群键值映射问题。Redis 的 KeySlot 算法中,如果 key 包含 {},就会使用第一个{} 内部的字符串作为 hash key,这样就可以保证拥有同样 {} 内部字符串的 key 就会拥有相同 slot。Redis 要求单个 Lua 脚本操作的 key 必须在同一个节点上,但是 Cluster 会将数据自动分布到不同的节点,使用这种方法就解决了上述的问题。
然后我们来看一下 Lua 脚本的实现,该脚本就在 Gateway 项目的 resource 文件夹下。它就是如同 Guava 的 RateLimiter 一样,实现了令牌桶算法,只不过不在需要进行线程休眠,而是直接返回是否能够获取。
local tokens_key = KEYS[1] — request_rate_limiter.${id}.tokens 令牌桶剩余令牌数的 KEY 值
local timestamp_key = KEYS[2] — 令牌桶最后填充令牌时间的 KEY 值
local rate = tonumber(ARGV[1]) — replenishRate 令令牌桶填充平均速率
local capacity = tonumber(ARGV[2]) — burstCapacity 令牌桶上限
local now = tonumber(ARGV[3]) — 得到从 1970-01-01 00:00:00 开始的秒数
local requested = tonumber(ARGV[4]) — 消耗令牌数量,默认 1
local fill_time = capacity/rate — 计算令牌桶填充满令牌需要多久时间
local ttl = math.floor(fill_time*2) — *2 保证时间充足
local last_tokens = tonumber(redis.call(“get”, tokens_key))
— 获得令牌桶剩余令牌数
if last_tokens == nil then — 第一次时,没有数值,所以桶时满的
last_tokens = capacity
end
local last_refreshed = tonumber(redis.call(“get”, timestamp_key))
— 令牌桶最后填充令牌时间
if last_refreshed == nil then
last_refreshed = 0
end
local delta = math.max(0, now-last_refreshed)
— 获取距离上一次刷新的时间间隔
local filled_tokens = math.min(capacity, last_tokens+(delta*rate))
— 填充令牌,计算新的令牌桶剩余令牌数 填充不超过令牌桶令牌上限。
local allowed = filled_tokens >= requested
local new_tokens = filled_tokens
local allowed_num = 0
if allowed then
— 若成功,令牌桶剩余令牌数(new_tokens) 减消耗令牌数(requested),并设置获取成功(allowed_num = 1)。
new_tokens = filled_tokens – requested
allowed_num = 1
end
— 设置令牌桶剩余令牌数(new_tokens),令牌桶最后填充令牌时间(now) ttl 是超时时间?
redis.call(“setex”, tokens_key, ttl, new_tokens)
redis.call(“setex”, timestamp_key, ttl, now)
— 返回数组结果
return {allowed_num, new_tokens}
后记
Redis 的主从异步复制机制可能丢失数据,出现限流流量计算不准确的情况,当然限流毕竟不同于分布式锁这种场景,对于结果的精确性要求不是很高,即使多流入一些流量,也不会影响太大。正如 Martin 在他质疑 Redis 分布式锁 RedLock 文章中说的,Redis 的数据丢弃了也无所谓时再使用 Redis 存储数据。
I think it’s a good fit in situations where you want to share some transient, approximate, fast-changing data between servers, and where it’s not a big deal if you occasionally lose that data for whatever reason
接下来我们回来学习阿里开源的分布式限流组件 sentinel,希望大家持续关注。
个人博客: Remcarpediem
参考
https://www.cnblogs.com/itren…
压测的文章:https://www.fuwuqizhijia.com/…
https://blog.csdn.net/forezp/…
https://blog.csdn.net/xixingz…
Matin RedLock http://martin.kleppmann.com/2…