关于负载均衡:为什么分布式限流会出现不均衡的情况

37次阅读

共计 2597 个字符,预计需要花费 7 分钟才能阅读完成。

概述

在微服务、API 化、云原生大行其道的明天,服务治理不可或缺,而服务治理中限流简直是必不可少的伎俩;微服务化往往随同着分布式的架构,那么仅仅单机限流是不够的,还须要分布式的限流。
那么问题就来了:分布式限流中,往往会呈现「限流不平衡」或「限流误差」的状况,这是为什么呢?

限流

国庆假期,限流这个词在新闻中应该能频繁听到,就是「景区限流」。这里以无锡的两个景点为例:

📌示例:

  • 无锡蠡园:最大承载量调整至 20000 人;刹时最大承载量调整至 4000 人;
  • 无锡东林书院:书院接待日最大承载量即时降至 1500 人,刹时承载量降至 300 人。

在计算机网络中,限流就是用于管制网络接口控制器发送或接管申请的速率 1,由此延长为: 限度达到零碎的并发申请数,以此来保障系统的稳定性(特地是在微服务、API 化、云原生零碎上)。

常见的限流算法

  1. 固定窗口计数器
  2. 滑动窗口计数器
  3. 漏桶
  4. 令牌桶

单机限流和分布式限流

实质上单机限流和分布式限流的区别就在于「承载量」寄存的地位。

单机限流间接在单台服务器上实现,而在微服务、API 化、云原生零碎上,利用和服务是集群部署的,因而须要集群内的多个实例协同工作,以提供集群范畴的限流,这就是分布式限流。

🤔为什么分布式限流会呈现不平衡的状况?

比方下面提到的滑动窗口的算法,能够将计数器寄存至 Redis 这样的 KV 数据库中。
例如滑动窗口的每个申请的工夫记录能够利用 Redis 的 zset 存储,利用 ZREMRANGEBYSCORE 删除工夫窗口之外的数据,再用 ZCARD 计数。

示例代码 2 如下:

package com.lizba.redis.limit;

import redis.clients.jedis.Jedis;
import redis.clients.jedis.Pipeline;
import redis.clients.jedis.Response;

/**
 * <p>
 *     Limiting current by sliding window algorithm through zset
 * </p>
 *
 * @Author: Liziba
 * @Date: 2021/9/6 18:11
 */
public class SimpleSlidingWindowByZSet {

    private Jedis jedis;

    public SimpleSlidingWindowByZSet(Jedis jedis) {this.jedis = jedis;}

    /**
     * Judging whether an action is allowed
     *
     * @param userId        User id
     * @param actionKey     Behavior key
     * @param period        Current Limiting Cycle
     * @param maxCount      Maximum number of requests (sliding window size)
     * @return
     */
    public boolean isActionAllowed(String userId, String actionKey, int period, int maxCount) {String key = this.key(userId, actionKey);
        long ts = System.currentTimeMillis();
        Pipeline pipe = jedis.pipelined();
        pipe.multi();
        pipe.zadd(key, ts, String.valueOf(ts));
        // Remove data other than sliding windows
        pipe.zremrangeByScore(key, 0, ts - (period * 1000));
        Response<Long> count = pipe.zcard(key);
        // Set the expiration time of the behavior, and if the data is cold, zset will be deleted to save memory space
        pipe.expire(key, period);
        pipe.exec();
        pipe.close();
        return count.get() <= maxCount;}


    /**
     * Current limiting key
     *
     * @param userId
     * @param actionKey
     * @return
     */
    public String key(String userId, String actionKey) {return String.format("limit:%s:%s", userId, actionKey);
    }

}

像令牌桶也能够将令牌数量放到 Redis 中。

🧠答案一:批量导致的误差

不过以上的形式相当于每一个申请都须要去 Redis 判断一下能不能通过,在性能上有肯定的损耗,所以针对大并发零碎,有个优化点就是「批量」。例如每次取令牌不是一个一取,而是取一批,不够了再去取一批。这样能够缩小对 Redis 的申请。
然而,批量获取就会导致肯定范畴内的限流误差。比方 a 实例此刻取了 100 个,等下一秒再用,那下一秒集群总承载量就有可能超过阈值。

这是一种起因。

🧠答案二:负载平衡负载不均

分布式限流还有一种做法是「平分」,比方之前单机限流 100,当初集群部署了 5 个实例,那就让每台持续限流 100,即在总的入口做总的流量限度,比方 500,而后每个实例再本人实现限流。
这种状况下,假如总的入口放入了 500 申请,这些申请须要通过负载平衡算法(如:轮询、最小连接数、最小连接时间等)以及会话放弃策略(如:源地址放弃、cookie 放弃或特定参数的 hash),分到每台的申请就可能是不平衡的,比方 a 实例有 70 个,b 实例有 130 个。那么 a 实例的 70 个会通过,而 b 实例的 130 个可能只有 100 个会通过。这时就呈现了「限流不平衡」或「限流偏差」的状况。

这是第二种起因。

总结

因为自己教训所限,本文只列出了我目前能想到的 2 个答案给大家参考,欢送各位交换补充。
实在的业务场景是很简单的,具体到一个工程,限流须要思考的条件和资源有很多。咱们要做的就是通过估算、压测、试运行、调整、再生产验证再调整来迫近现实状况。

三人行, 必有我师; 常识共享, 天下为公. 本文由东风微鸣技术博客 EWhisper.cn 编写.


  1. Rate limiting – Wikipedia ↩
  2. Redis zset for sliding window current limiting (programmer.group) ↩

正文完
 0