关于java:不能错过的分布式ID生成器Leaf-好用的一批

3次阅读

共计 5162 个字符,预计需要花费 13 分钟才能阅读完成。

本文收录在集体博客:www.chengxy-nds.top,技术材料共享,同提高

不理解分布式 ID 的同学,后行去看《一口气说出 9 种 分布式 ID 生成形式,面试官有点懵了》复习一下基础知识,这里就不再赘述了

美团(Leaf)

Leaf是美团推出的一个分布式 ID 生成服务,名字取自德国哲学家、数学家莱布尼茨的一句话:“There are no two identical leaves in the world.”(“世界上没有两片雷同的树叶”),取个名字都这么有寓意,美团程序员牛掰啊!

Leaf的劣势:高牢靠 低提早 全局惟一 等特点。

目前支流的分布式 ID 生成形式,大抵都是基于 数据库号段模式 雪花算法(snowflake),而美团(Leaf)刚好同时兼具了这两种形式,能够依据不同业务场景灵便切换。

接下来联合实战,具体的介绍一下 LeafLeaf-segment 号段模式 Leaf-snowflake 模式

一、Leaf-segment 号段模式

Leaf-segment号段模式是对间接用 数据库自增 ID充当 分布式 ID的一种优化,缩小对数据库的频率操作。相当于从数据库批量的获取自增 ID,每次从数据库取出一个号段范畴,例如 (1,1000] 代表 1000 个 ID,业务服务将号段在本地生成 1~1000 的自增 ID 并加载到内存.。

大抵的流程入下图所示:

号段耗尽之后再去数据库获取新的号段,能够大大的加重数据库的压力。对 max_id 字段做一次 update 操作,update max_id= max_id + step,update 胜利则阐明新号段获取胜利,新的号段范畴是(max_id ,max_id +step]。

因为依赖数据库,咱们先设计一下表构造:

CREATE TABLE `leaf_alloc` (`biz_tag` varchar(128) NOT NULL DEFAULT ''COMMENT' 业务 key',
  `max_id` bigint(20) NOT NULL DEFAULT '1' COMMENT '以后曾经调配了的最大 id',
  `step` int(11) NOT NULL COMMENT '初始步长,也是动静调整的最小步长',
  `description` varchar(256) DEFAULT NULL COMMENT '业务 key 的形容',
  `update_time` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP COMMENT '数据库保护的更新工夫',
  PRIMARY KEY (`biz_tag`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;

事后插入一条测试的业务数据

INSERT INTO `leaf_alloc` (`biz_tag`, `max_id`, `step`, `description`, `update_time`) VALUES ('leaf-segment-test', '0', '10', '测试', '2020-02-28 10:41:03');
  • biz_tag:针对不同业务需要,用 biz_tag 字段来隔离,如果当前须要扩容时,只需对 biz_tag 分库分表即可
  • max_id:以后业务号段的最大值,用于计算下一个号段

    • step:步长,也就是每次获取 ID 的数量

      • description:对于业务的形容,没啥好说的

将 Leaf 我的项目下载到本地:https://github.com/Meituan-Dianping/Leaf

批改一下我的项目中的 leaf.properties 文件,增加数据库配置

leaf.name=com.sankuai.leaf.opensource.test
leaf.segment.enable=true
leaf.jdbc.url=jdbc:mysql://127.0.0.1:3306/xin-master?useUnicode=true&characterEncoding=utf8
leaf.jdbc.username=junkang
leaf.jdbc.password=junkang

leaf.snowflake.enable=false

留神leaf.snowflake.enableleaf.segment.enable 是无奈同时开启的,否则我的项目将无奈启动。

配置相当的简略,间接启动 LeafServerApplication 后就 OK 了,接下来测试一下,leaf是基于 Http 申请 的发号服务,LeafController 中只有两个办法,一个号段接口,一个 snowflake 接口,key就是数据库中事后插入的业务biz_tag


@RestController
public class LeafController {private Logger logger = LoggerFactory.getLogger(LeafController.class);

    @Autowired
    private SegmentService segmentService;
    @Autowired
    private SnowflakeService snowflakeService;

    /**
     * 号段模式
     * @param key
     * @return
     */
    @RequestMapping(value = "/api/segment/get/{key}")
    public String getSegmentId(@PathVariable("key") String key) {return get(key, segmentService.getId(key));
    }

    /**
     * 雪花算法模式
     * @param key
     * @return
     */
    @RequestMapping(value = "/api/snowflake/get/{key}")
    public String getSnowflakeId(@PathVariable("key") String key) {return get(key, snowflakeService.getId(key));
    }

    private String get(@PathVariable("key") String key, Result id) {
        Result result;
        if (key == null || key.isEmpty()) {throw new NoKeyException();
        }
        result = id;
        if (result.getStatus().equals(Status.EXCEPTION)) {throw new LeafServerException(result.toString());
        }
        return String.valueOf(result.getId());
    }
}

拜访:http://127.0.0.1:8080/api/segment/get/leaf-segment-test,后果失常返回,感觉没故障,但当查了一下数据库表中数据时发现了一个问题。


通常在用号段模式的时候,取号段的机会是在前一个号段耗费完的时候进行的,可刚刚才取了一个 ID,数据库中却曾经更新了 max_id,也就是说leaf 曾经多获取了一个号段,这是什么鬼操作?

Leaf为啥要这么设计呢?

Leaf 心愿能在 DB 中取号段的过程中做到无阻塞!

当号段耗尽时再去 DB 中取下一个号段,如果此时网络产生抖动,或者 DB 产生慢查问,业务零碎拿不到号段,就会导致整个零碎的响应工夫变慢,对流量微小的业务,这是不可容忍的。

所以 Leaf 在以后号段生产到某个点时,就异步的把下一个号段加载到内存中。而不须要等到号段用尽的时候才去更新号段。这样做很大水平上的升高了零碎的危险。

那么 某个点 到底是什么时候呢?

这里做了一个试验,号段设置长度为 step=10max_id=1

当我拿第一个 ID 时,看到号段减少了,1/10


当我拿第三个 Id 时,看到号段又减少了,3/10


Leaf采纳 双 buffer的形式,它的服务外部有两个号段缓存区segment。以后号段已耗费 10% 时,还没能拿到下一个号段,则会另启一个更新线程去更新下一个号段。

简而言之就是 Leaf 保障了总是会多缓存两个号段,即使哪一时刻数据库挂了,也会保障发号服务能够失常工作一段时间。


通常举荐号段(segment)长度设置为服务高峰期发号 QPS 的 600 倍(10 分钟),这样即便 DB 宕机,Leaf 仍能继续发号 10-20 分钟不受影响。

长处:

  • Leaf 服务能够很不便的线性扩大,性能齐全可能撑持大多数业务场景。
  • 容灾性高:Leaf 服务外部有号段缓存,即便 DB 宕机,短时间内 Leaf 仍能失常对外提供服务。

毛病:

  • ID 号码不够随机,可能泄露发号数量的信息,不太平安。
  • DB 宕机会造成整个零碎不可用(用到数据库的都有可能)。

二、Leaf-snowflake

Leaf-snowflake基本上就是沿用了 snowflake 的设计,ID 组成构造:正数位 (占 1 比特)+ 工夫戳 (占 41 比特)+ 机器 ID(占 5 比特)+ 机房 ID(占 5 比特)+ 自增值(占 12 比特),总共 64 比特组成的一个 Long 类型。

Leaf-snowflake不同于原始 snowflake 算法中央,次要是在 workId 的生成上,Leaf-snowflake依附 Zookeeper 生成 workId,也就是上边的 机器 ID(占 5 比特)+ 机房 ID(占 5 比特)。Leaf中 workId 是基于 ZooKeeper 的 程序 Id来生成的,每个利用在应用 Leaf-snowflake 时,启动时都会都在 Zookeeper 中生成一个程序 Id,相当于一台机器对应一个程序节点,也就是一个 workId。


Leaf-snowflake启动服务的过程大抵如下:

  • 启动 Leaf-snowflake 服务,连贯 Zookeeper,在 leaf_forever 父节点下查看本人是否曾经注册过(是否有该程序子节点)。

    • 如果有注册过间接取回本人的 workerID(zk 程序节点生成的 int 类型 ID 号),启动服务。

      • 如果没有注册过,就在该父节点上面创立一个长久程序节点,创立胜利后取回顺序号当做本人的 workerID 号,启动服务。

Leaf-snowflake 对 Zookeeper 是一种弱依赖关系,除了每次会去 ZK 拿数据以外,也会在本机文件系统上缓存一个 workerID 文件。一旦 ZooKeeper 呈现问题,恰好机器呈现故障需重启时,仍然可能保障服务失常启动。

启动 Leaf-snowflake 模式也比较简单,起动本地 ZooKeeper,批改一下我的项目中的 leaf.properties 文件,敞开 leaf.segment 模式,启用leaf.snowflake 模式即可。

leaf.segment.enable=false
#leaf.jdbc.url=jdbc:mysql://127.0.0.1:3306/xin-master?useUnicode=true&characterEncoding=utf8
#leaf.jdbc.username=junkang
#leaf.jdbc.password=junkang

leaf.snowflake.enable=true
leaf.snowflake.zk.address=127.0.0.1
leaf.snowflake.port=2181
    /**
     * 雪花算法模式
     * @param key
     * @return
     */
    @RequestMapping(value = "/api/snowflake/get/{key}")
    public String getSnowflakeId(@PathVariable("key") String key) {return get(key, snowflakeService.getId(key));
    }

测试一下,拜访:http://127.0.0.1:8080/api/snowflake/get/leaf-segment-test


长处:

  • ID 号码是趋势递增的 8byte 的 64 位数字,满足上述数据库存储的主键要求。

毛病:

  • 依赖 ZooKeeper,存在服务不可用危险(切实不晓得有啥毛病了)

三、Leaf 监控

申请地址:http://127.0.0.1:8080/cache

针对服务本身的监控,Leaf 提供了 Web 层的内存数据映射界面,能够实时看到所有号段的下发状态。比方每个号段双 buffer 的应用状况,以后 ID 下发到了哪个地位等信息都能够在 Web 界面上查看。

总结

对于 Leaf 具体应用哪种模式,还是依据具体的业务场景应用,本文并没有对 Leaf 源码做过多的剖析,因为 Leaf 代码量简洁很好浏览。

原创不易,焚烧秀发输入内容,如果有一丢丢播种,点个赞激励一下吧!

习惯在 VX 看技术文章,想要获取更多 Java 资源的同学,能够关注我的公众号:程序员内点事,暗号:[666]

正文完
 0