关于golang:LeafSegment分布式ID生成系统Golang实现版本

31次阅读

共计 13446 个字符,预计需要花费 34 分钟才能阅读完成。

Leaf-Segment

简介:明天间接单刀直入,先来介绍一下我明天所带来的货色。没错,看题目想必大家曾经想到了 —— Leaf-segment 数据库获取 ID 计划。这个计划曾经脍炙人口了,美团早就进行了开源,不过他是由 java 来实现的,所以最近为了学习这一方面常识,我用 go 本人实现了一下,目前本人验证是没有发现什么 bug,期待大家的测验,发现bug 可及时反馈(提 mr 或加我 vx 都可)。

代码已收录到我的集体仓库——[go- 算法系列(go-algorithm)](https://github.com/asong2020/…。

欢送Star,感激各位~~~。

注:下文 leaf-segment 数据库方案设计间接参考美团(摘取局部)。具体请参阅:https://tech.meituan.com/2017…

疾速应用

创立数据库

CREATE TABLE `leaf_alloc` (`id` int(11) NOT NULL AUTO_INCREMENT,
  `biz_tag` varchar(128)  NOT NULL DEFAULT '',
  `max_id` bigint(20) NOT NULL DEFAULT '1',
  `step` int(11) NOT NULL,
  `description` varchar(256)  DEFAULT NULL,
  `update_time` bigint(20) NOT NULL DEFAULT '0',
  PRIMARY KEY (`id`),
  UNIQUE KEY (`biz_tag`)
) ENGINE=InnoDB;

也能够间接应用我曾经生成好的 SQL 文件(已在工程项目中)。各个字段的介绍我会在后文代码实现局部进行解析,这里就不一一解析了。

获取并运行我的项目

// 1 新建文件目录
$ mdkir asong.cloud
$ cd asong.cloud
// 2 获取我的项目
$ git clone git@github.com:asong2020/go-algorithm.git
// 3 进入我的项目目录
$ cd go-go-algorithm/leaf
// 4 运行
$ go run main.go // 运行

测试

创立业务号段

URI: POST http://localhost:8080/api/leaf
Param(json):
{
    "biz_tag": "test_create_one",
    "max_id":  1, // 能够不传 默认为 1
    "step": 2000, // 能够不传 默认为 200
    "descprition": "test api one"
}
  • 示例:
curl --location --request POST 'http://localhost:8080/api/leaf' \
--header 'Content-Type: application/json' \
--data-raw '{"biz_tag":"test_create_one","descprition":"test api one"}'

初始化 DB 中的号段到内存中

URI: PUT http://localhost:8080/api/leaf/init/cache
Param(json):
{"biz_tag": "test_create"}
  • 示例
curl --location --request PUT 'http://localhost:8080/api/leaf/init/cache' \
--header 'Content-Type: application/json' \
--data-raw '{"biz_tag":"test_create"}'

获取 ID

URI: GET http://localhost:8080/api/leaf
Param: 
?biz_tag=test_create
  • 示例
curl --location --request GET 'http://localhost:8080/api/leaf?biz_tag=test_create'

更新step

URI: PUT http://localhost:8080/api/leaf/step
Param(json):
{
    "step":   10000,
    "biz_tag": "test_create"
}
  • 示例
curl --location --request PUT 'http://localhost:8080/api/leaf/step' \
--header 'Content-Type: application/json' \
--data-raw '{"step": 10000,"biz_tag":"test_create"}'

Leaf-Segment 计划实现

背景

在简单分布式系统中,往往须要对大量的数据和音讯进行惟一标识。一个可能生成全局惟一 ID 的零碎是十分必要的。比方某宝,业务散布宽泛,这么多业务对数据分库分表后须要有一个惟一 ID 来标识一条数据或音讯,数据库的自增 ID 显然不能满足需要;所以,咱们能够总结一下业务系统对 ID 号的要求有哪些呢?

  1. 全局唯一性:不能呈现反复的 ID 号,既然是惟一标识,这是最根本的要求。
  2. 趋势递增:在 MySQL InnoDB 引擎中应用的是汇集索引,因为少数 RDBMS 应用 B -tree 的数据结构来存储索引数据,在主键的抉择下面咱们应该尽量应用有序的主键保障写入性能。
  3. 枯燥递增:保障下一个 ID 肯定大于上一个 ID,例如事务版本号、IM 增量音讯、排序等非凡需要。
  4. 信息安全:如果 ID 是间断的,歹意用户的扒取工作就非常容易做了,间接依照程序下载指定 URL 即可;如果是订单号就更危险了,竞对能够间接晓得咱们一天的单量。所以在一些利用场景下,会须要 ID 无规则、不规则。

上述 123 对应三类不同的场景,3 和 4 需要还是互斥的,无奈应用同一个计划满足。

本文只讲述场景 3 的计划,即 leaf-segment。场景 4 能够用 雪花算法 实现,这个我之前实现过了,有趣味的童鞋能够参考一下。传送门:https://github.com/asong2020/…

数据库生成

leaf-sement是在应用数据库生成计划上做的改良。这里先抛砖引玉一下,看一下数据库生成计划是怎么实现的。

以 MySQL 举例,利用给字段设置 auto_increment_incrementauto_increment_offset来保障 ID 自增,每次业务应用下列 SQL 读写 MySQL 失去 ID 号。

begin;
REPLACE INTO Tickets64 (stub) VALUES ('a');
SELECT LAST_INSERT_ID();
commit;

这种计划的优缺点如下:

长处:

  • 非常简单,利用现有数据库系统的性能实现,老本小,有 DBA 业余保护。
  • ID 号枯燥自增,能够实现一些对 ID 有特殊要求的业务。

毛病:

  • 强依赖 DB,当 DB 异样时整个零碎不可用,属于致命问题。配置主从复制能够尽可能的减少可用性,然而数据一致性在非凡状况下难以保障。主从切换时的不统一可能会导致反复发号。
  • ID 发号性能瓶颈限度在单台 MySQL 的读写性能。

对于 MySQL 性能问题,可用如下计划解决:在分布式系统中咱们能够多部署几台机器,每台机器设置不同的初始值,且步长和机器数相等。比方有两台机器。设置步长 step 为 2,TicketServer1 的初始值为 1(1,3,5,7,9,11…)、TicketServer2 的初始值为 2(2,4,6,8,10…)。这是 Flickr 团队在 2010 年撰文介绍的一种主键生成策略(Ticket Servers: Distributed Unique Primary Keys on the Cheap)。如下所示,为了实现上述计划别离设置两台机器对应的参数,TicketServer1 从 1 开始发号,TicketServer2 从 2 开始发号,两台机器每次发号之后都递增 2。

TicketServer1:
auto-increment-increment = 2
auto-increment-offset = 1

TicketServer2:
auto-increment-increment = 2
auto-increment-offset = 2

假如咱们要部署 N 台机器,步长需设置为 N,每台的初始值顺次为 0,1,2…N- 1 那么整个架构就变成了如下图所示:

这种架构貌似可能满足性能的需要,但有以下几个毛病:

  • 零碎程度扩大比拟艰难,比方定义好了步长和机器台数之后,如果要增加机器该怎么做?假如当初只有一台机器发号是 1,2,3,4,5(步长是 1),这个时候须要扩容机器一台。能够这样做:把第二台机器的初始值设置得比第一台超过很多,比方 14(假如在扩容工夫之内第一台不可能发到 14),同时设置步长为 2,那么这台机器下发的号码都是 14 当前的偶数。而后摘掉第一台,把 ID 值保留为奇数,比方 7,而后批改第一台的步长为 2。让它合乎咱们定义的号段规范,对于这个例子来说就是让第一台当前只能产生奇数。扩容计划看起来简单吗?貌似还好,当初设想一下如果咱们线上有 100 台机器,这个时候要扩容该怎么做?几乎是噩梦。所以零碎程度扩大计划简单难以实现。
  • ID 没有了枯燥递增的个性,只能趋势递增,这个毛病对于个别业务需要不是很重要,能够容忍。
  • 数据库压力还是很大,每次获取 ID 都得读写一次数据库,只能靠堆机器来进步性能

Leaf-Segment数据库计划

Leaf-Segment数据库计划是在下面的数据库生成计划上做的改良。

做了如下扭转:– 原计划每次获取 ID 都得读写一次数据库,造成数据库压力大。改为利用 proxy server 批量获取,每次获取一个 segment(step 决定大小)号段的值。用完之后再去数据库获取新的号段,能够大大的加重数据库的压力。– 各个业务不同的发号需要用 biz_tag 字段来辨别,每个 biz-tag 的 ID 获取互相隔离,互不影响。如果当前有性能需求须要对数据库扩容,不须要上述形容的简单的扩容操作,只须要对 biz_tag 分库分表就行。

数据库表设计如下:

CREATE TABLE `leaf_alloc` (`id` int(11) NOT NULL AUTO_INCREMENT,
  `biz_tag` varchar(128)  NOT NULL DEFAULT '',
  `max_id` bigint(20) NOT NULL DEFAULT '1',
  `step` int(11) NOT NULL,
  `description` varchar(256)  DEFAULT NULL,
  `update_time` bigint(20) NOT NULL DEFAULT '0',
  PRIMARY KEY (`id`),
  UNIQUE KEY (`biz_tag`)
) ENGINE=InnoDB;

这里我仍旧应用了一个自增主键,不过没什么用,能够疏忽。biz_tag 用来辨别业务(所以我把它设置成了惟一索引),max_id 示意该 biz_tag 目前所被调配的 ID 号段的最大值,step 示意每次调配的号段长度。原来获取 ID 每次都须要写数据库,当初只须要把 step 设置得足够大,比方 1000。那么只有当 1000 个号被耗费完了之后才会去从新读写一次数据库。读写数据库的频率从 1 减小到了 1 /step,大抵架构如下图所示:

test_tag 在第一台 Leaf 机器上是 1~1000 的号段,当这个号段用完时,会去加载另一个长度为 step=1000 的号段,假如另外两台号段都没有更新,这个时候第一台机器新加载的号段就应该是 3001~4000。同时数据库对应的 biz_tag 这条数据的 max_id 会从 3000 被更新成 4000,更新号段的 SQL 语句如下:

Begin
UPDATE table SET max_id=max_id+step WHERE biz_tag=xxx
SELECT tag, max_id, step FROM table WHERE biz_tag=xxx
Commit

这种模式有以下优缺点:

长处:

  • Leaf 服务能够很不便的线性扩大,性能齐全可能撑持大多数业务场景。
  • ID 号码是趋势递增的 8byte 的 64 位数字,满足上述数据库存储的主键要求。
  • 容灾性高:Leaf 服务外部有号段缓存,即便 DB 宕机,短时间内 Leaf 仍能失常对外提供服务。
  • 能够自定义 max_id 的大小,十分不便业务从原有的 ID 形式上迁徙过去。

毛病:

  • ID 号码不够随机,可能泄露发号数量的信息,不太平安。
  • TP999 数据稳定大,当号段应用完之后还是会 hang 在更新数据库的 I / O 上,tg999 数据会呈现偶然的尖刺。
  • DB 宕机会造成整个零碎不可用。

双 buffer 优化

对于第二个毛病,Leaf-segment 做了一些优化,简略的说就是:

Leaf 取号段的机会是在号段耗费完的时候进行的,也就意味着号段临界点的 ID 下发工夫取决于下一次从 DB 取回号段的工夫,并且在这期间进来的申请也会因为 DB 号段没有取回来,导致线程阻塞。如果申请 DB 的网络和 DB 的性能稳固,这种状况对系统的影响是不大的,然而如果取 DB 的时候网络产生抖动,或者 DB 产生慢查问就会导致整个零碎的响应工夫变慢。

为此,咱们心愿 DB 取号段的过程可能做到无阻塞,不须要在 DB 取号段的时候阻塞申请线程,即当号段生产到某个点时就异步的把下一个号段加载到内存中。而不须要等到号段用尽的时候才去更新号段。这样做就能够很大水平上的升高零碎的 TP999 指标。具体实现如下图所示:

采纳双 buffer 的形式,Leaf 服务外部有两个号段缓存区 segment。以后号段已下发 10% 时,如果下一个号段未更新,则另启一个更新线程去更新下一个号段。以后号段全副下发完后,如果下个号段筹备好了则切换到下个号段为以后 segment 接着下发,周而复始。

  • 每个 biz-tag 都有生产速度监控,通常举荐 segment 长度设置为服务高峰期发号 QPS 的 600 倍(10 分钟),这样即便 DB 宕机,Leaf 仍能继续发号 10-20 分钟不受影响。
  • 每次申请来长期都会判断下个号段的状态,从而更新此号段,所以偶然的网络抖动不会影响下个号段的更新。

代码实现

终于到本文的重点了,上面就给大家解说一下我是怎么实现的。

代码架构

这里先贴一下我的代码架构,具体如下:

leaf
├── common -- common 包,放的是一些 client 初始的代码
├── conf   -- conf 包,配置文件
├── config -- config 包,读取配置文件代码局部
├── dao    -- dao 包,DB 操作局部
├── handler -- hanler 包,路由注册即 API 代码实现局部
├── images -- 本文的图片文件
├── model -- model 包,db 模型或其余模型
├── service -- service 包,逻辑实现局部
├── wire    -- wire 包,依赖绑定
├── leaf_svr.go -- main 运行先置条件
└── main.go -- main 函数

实现剖析

在咱们实现之前,必定要剖析一波,咱们要做什么,怎么做?我老大常常跟我说的一句话:” 先把需要剖析明确了,再入手,返工反而是浪费时间 ”。

  1. 首先咱们要把一段号段存从 DB 中拿到存到内存中,并且可能同时存在很多业务,这里我就想到用 map 来存,应用 biz_tag 来作为key,因为它具备唯一性,并且能很快的定位。所以咱们能够定义一个这样的构造体作为全局 ID 散发器:
// 全局分配器
// key: biz_tag value: SegmentBuffer
type LeafSeq struct {cache sync.Map}

这里思考到并发操作,所以应用sync.map,因为他是并发平安的。

  1. 确定了 ID 怎么存,接下来咱们就要思考,咱们存什么样的构造比拟适合。这里我决定间接实现 ” 双 buffer 优化 ” 的计划。这里我筹备本人定义struct,而后用切片来模仿双 buffer。所以能够设计如下构造:
// 号段
type LeafSegment struct {
    Cursor uint64 // 以后发放地位
    Max    uint64 // 最大值
    Min    uint64 // 开始值即最小值
    InitOk bool   // 是否初始化胜利
}

字段阐明:首先要有一个字段来记录以后数据发放到什么地位了,Cursor就是来做这个的。其次咱们还要把范畴固定住,也是这个号段的开始和完结,也就是 minmax 字段的作用。最初咱们还要思考一个问题,既然咱们应用的双 buffer,也就是说咱们并不能确定下一段buffer 是否可用,所以加了一个 initOK 字段来进行表明。

  1. 下面也设计好了号段怎么存,接下来咱们设计怎么线程平安的把这些 id 有序的发放进来,所以能够设计如下构造:
type LeafAlloc struct {
    Key        string                 // 也就是 `biz_tag` 用来辨别业务
    Step       int32                  // 记录步长
    CurrentPos int32                  // 以后应用的 segment buffer 光标; 总共两个 buffer 缓存区,循环应用
    Buffer     []*LeafSegment         // 双 buffer 一个作为预缓存作用
    UpdateTime time.Time              // 记录更新工夫 不便长时间不必进行清理,避免占用内存
    mutex      sync.Mutex             // 互斥锁
    IsPreload  bool                   // 是否正在预加载
    Waiting    map[string][]chan byte // 挂起期待}

字段介绍:key也就是咱们的 biz_tag,能够用它疾速从map 中定义数据。Step记录以后号段的步长,因为步长是能够动静扭转的,所以这里须要记录一下。currentPos这个齐全是记录以后应用 buffer,因为是双buffer,所以须要定位。buffer 这个不必介绍大家也应该晓得,就是缓存池。Update_time这个字段大多人可能想不到为什么会有这个,咱们的号段当初都存到内存当中了,那么当咱们的业务变多了当前,那么内存就会越占越多,所以咱们须要记录他的更新工夫,这样咱们能够应用一个定时器定期去革除长时间不应用的号段,节俭内存。IsPreload这个字段是给预加载应用,以后缓冲区的号段应用了 90% 后,咱们就会去预加载下一段缓存池,为了避免多次重复加载,所以应用该字段做标识。waiting这里我应用的是 map+chan 的联合,这里的作用就是当咱们以后缓存池的号段耗费的比拟快或者预加载失败了,就会导致当初没有缓存池可用,所以咱们能够去期待一会,因为当初有可能正在做预加载,这样能够放弃零碎的高可用,如果超时仍未等到预加载胜利则返回失败,下一次调用即可。

根本思维就是这样啦,上面咱们就分块看一下代码。

先从 DB 层走起

我这个人写代码,爱从 DB 层开始,也就是把我须要的 CRUD 操作都提前写好并测试,这里就不贴每段代码的实现了,要不代码量有点大,并且也没有必要,间接介绍一下有哪些办法就能够了。

func (l *LeafDB) Create(ctx context.Context, leaf *model.Leaf) error {}
func (l *LeafDB) Get(ctx context.Context, bizTag string, tx *sql.Tx) (*model.Leaf, error) {}
func (l *LeafDB) UpdateMaxID(ctx context.Context, bizTag string, tx *sql.Tx) error {}
func (l *LeafDB) UpdateMaxIdByCustomStep(ctx context.Context, step int32, bizTag string, tx *sql.Tx) error {}
func (l *LeafDB) GetAll(ctx context.Context) ([]*model.Leaf, error) {}
func (l *LeafDB) UpdateStep(ctx context.Context, step int32, bizTag string) error {
  1. 创立 leaf 办法。
  2. 获取某个业务的号段
  3. 号段用完时是须要更新 DB 到下一个号段
  4. 依据自定义 step 更新 DB 到下一个号段
  5. 获取 DB 中所有的业务号段
  6. 更新 DB 中step

实现获取新号段局部的代码

先贴出我的代码:

func (l *LeafDao) NextSegment(ctx context.Context, bizTag string) (*model.Leaf, error) {
    // 开启事务
    tx, err := l.sql.Begin()
    defer func() {
        if err != nil {l.rollback(tx)
        }
    }()
    if err = l.checkError(err); err != nil {return nil, err}
    err = l.db.UpdateMaxID(ctx, bizTag, tx)
    if err = l.checkError(err); err != nil {return nil, err}
    leaf, err := l.db.Get(ctx, bizTag, tx)
    if err = l.checkError(err); err != nil {return nil, err}
    // 提交事务
    err = tx.Commit()
    if err = l.checkError(err); err != nil {return nil, err}
    return leaf, nil
}

func (l *LeafDao) checkError(err error) error {
    if err == nil {return nil}
    if message, ok := err.(*mysql.MySQLError); ok {fmt.Printf("it's sql error; str:%v", message.Message)
    }
    return errors.New("db error")
}

func (l *LeafDao) rollback(tx *sql.Tx) {err := tx.Rollback()
    if err != sql.ErrTxDone && err != nil {fmt.Println("rollback error")
    }
}

实现其实很简略,也就是先更新一下数据库中的号段,而后再取出来就能够了,这里为了保证数据的一致性和避免屡次更新 DB 导致号段失落,所以应用了事务,没有什么特地的点,看一下代码就能懂了。

初始化及获取 ID

这里我把 DB 中的号段初始化到内存这一步和获取 ID 合到一起来说吧,因为在获取 ID 时会有兜底策略进行初始化。先看初始化局部代码:

// 第一次应用要初始化也就是把 DB 中的数据存到内存中, 非必须操作,间接应用的话有兜底策略
func (l *LeafService) InitCache(ctx context.Context, bizTag string) (*model.LeafAlloc, error) {leaf, err := l.dao.NextSegment(ctx, bizTag)
    if err != nil {fmt.Printf("initCache failed; err:%v\n", err)
        return nil, err
    }
    alloc := model.NewLeafAlloc(leaf)
    alloc.Buffer = append(alloc.Buffer, model.NewLeafSegment(leaf))

    _ = l.leafSeq.Add(alloc)
    return alloc, nil
}

这里步骤次要分两步:

  1. 从 DB 中获取以后业务的号段
  2. 保留到内存中,也就是存到map

之后是咱们来看一下咱们是如何获取 id 的,这里步骤比拟多了,也是最外围的中央了。

先看主流程:

func (l *LeafService) GetID(ctx context.Context, bizTag string) (uint64, error) {
    // 先去内存中看一下是否曾经初始了,未初始化则开启兜底策略初始化一下。l.mutex.Lock()
    var err error
    seqs := l.leafSeq.Get(bizTag)
    if seqs == nil {
        // 不存在初始化一下
        seqs, err = l.InitCache(ctx, bizTag)
        if err != nil {return 0, err}
    }
    l.mutex.Unlock()

    var id uint64
    id, err = l.NextID(seqs)
    if err != nil {return 0, err}
    l.leafSeq.Update(bizTag, seqs)

    return id, nil
}

次要分为三步:

  1. 先去内存中查看该业务是否曾经初始化了,未初始化则开启兜底策略进行初始化。
  2. 获取id
  3. 更新内存中的数据。

这里最终要的就是第二步,获取id,这里我先把代码贴出来,而后细细解说一下:

func (l *LeafService) NextID(current *model.LeafAlloc) (uint64, error) {current.Lock()
    defer current.Unlock()
    var id uint64
    currentBuffer := current.Buffer[current.CurrentPos]
    // 判断以后 buffer 是否是可用的
    if current.HasSeq() {id = atomic.AddUint64(&current.Buffer[current.CurrentPos].Cursor, 1)
        current.UpdateTime = time.Now()}

    // 以后号段已下发 10% 时,如果下一个号段未更新加载,则另启一个更新线程去更新下一个号段
    if currentBuffer.Max-id < uint64(0.9*float32(current.Step)) && len(current.Buffer) <= 1 && !current.IsPreload {
        current.IsPreload = true
        cancel, _ := context.WithTimeout(context.Background(), 3*time.Second)
        go l.PreloadBuffer(cancel, current.Key, current)
    }

    // 第一个 buffer 的 segment 应用实现 切换到下一个 buffer 并移除当初的 buffer
    if id == currentBuffer.Max {// 判断第二个 buffer 是否筹备好了(因为下面开启协程去更新下一个号段会呈现失败),筹备好了切换  currentPos 永远是 0 不管怎么切换
        if len(current.Buffer) > 1 && current.Buffer[current.CurrentPos+1].InitOk {current.Buffer = append(current.Buffer[:0], current.Buffer[1:]...)
        }
        // 如果没筹备好,间接返回就好了,因为当初曾经调配 id 了, 前面会进行弥补
    }
    // 有 id 间接返回就能够了
    if current.HasID(id) {return id, nil}

    // 以后 buffer 曾经没有 id 可用了,此时弥补线程肯定正在运行,咱们期待一会
    waitChan := make(chan byte, 1)
    current.Waiting[current.Key] = append(current.Waiting[current.Key], waitChan)
    // 开释锁 期待让其余客户端进行走后面的步骤
    current.Unlock()

    timer := time.NewTimer(500 * time.Millisecond) // 期待 500ms 最多
    select {
    case <-waitChan:
    case <-timer.C:
    }

    current.Lock()
    // 第二个缓冲区仍未初始化好
    if len(current.Buffer) <= 1 {return 0, errors.New("get id failed")
    }
    // 切换 buffer
    current.Buffer = append(current.Buffer[:0], current.Buffer[1:]...)
    if current.HasSeq() {id = atomic.AddUint64(&current.Buffer[current.CurrentPos].Cursor, 1)
        current.UpdateTime = time.Now()}
    return id, nil

}

这里我感觉用文字描述不分明,所以我画了个图,不晓得你们能不能看懂,能够对照着代码来看,这样是最清晰的,有问题欢送留言探讨:

预加载的流程也被我画下来了,预加载的步骤次要有三个:

  1. 获取某业务下一个阶段的号段
  2. 存储到缓存 buffer 中,留着备用.
  3. 唤醒以后正在挂起期待的客户端

代码实现如下:

func (l *LeafService) PreloadBuffer(ctx context.Context, bizTag string, current *model.LeafAlloc) error {
    for i := 0; i < MAXRETRY; i++ {leaf, err := l.dao.NextSegment(ctx, bizTag)
        if err != nil {fmt.Printf("preloadBuffer failed; bizTag:%s;err:%v", bizTag, err)
            continue
        }
        segment := model.NewLeafSegment(leaf)
        current.Buffer = append(current.Buffer, segment) // 追加
        l.leafSeq.Update(bizTag, current)
        current.Wakeup()
        break
    }
    current.IsPreload = false
    return nil
}
func (l *LeafAlloc) Wakeup() {l.mutex.Lock()
    defer l.mutex.Unlock()
    for _, waitChan := range l.Waiting[l.Key] {close(waitChan)
    }
    l.Waiting[l.Key] = l.Waiting[l.Key][:0]
}

缓存清理

到这里,所有外围代码都曾经实现了,还差最初一步,就是清缓存,就像下面说到的,超长工夫不必的号段咱们就要革除它,不能让他沉积造成内存节约。这里我实现的是清理超过 15min 未应用的号段。实现也很简略,就是应用 timer 做一个定时器,每隔 15min 就去遍历存储号段的 `map,把超过 15min 未更新的号段革除掉(尽管会造成号段节约,但也要这要做)。

// 清理超过 15min 没用过的内存
func (l *LeafSeq) clear() {
    for {now := time.Now()
        // 15 分钟后
        mm, _ := time.ParseDuration("15m")
        next := now.Add(mm)
        next = time.Date(next.Year(), next.Month(), next.Day(), next.Hour(), next.Minute(), 0, 0, next.Location())
        t := time.NewTimer(next.Sub(now))
        <-t.C
        fmt.Println("start clear goroutine")
        l.cache.Range(func(key, value interface{}) bool {alloc := value.(*LeafAlloc)
            if next.Sub(alloc.UpdateTime) > ExpiredTime {fmt.Printf("clear biz_tag: %s cache", key)
                l.cache.Delete(key)
            }
            return true
        })
    }
}

总结

好啦,到这里就是靠近序幕了,下面就是我实现的整个过程,目前本人测试没有什么问题,前期还会在缝缝补补,大家也能够帮我找找问题,欢送提出你们贵重的倡议~~~。

代码已收录到我的集体仓库——[go- 算法系列(go-algorithm)](https://github.com/asong2020/…。

欢送Star,感激各位~~~。

好啦,这一篇文章到这就完结了,咱们下期见~~。心愿对你们有用,又不对的中央欢送指出,可增加我的 golang 交换群,咱们一起学习交换。

结尾给大家发一个小福利吧,最近我在看 [微服务架构设计模式] 这一本书,讲的很好,本人也收集了一本 PDF,有须要的小伙能够到自行下载。获取形式:关注公众号:[Golang 梦工厂],后盾回复:[微服务],即可获取。

我翻译了一份 GIN 中文文档,会定期进行保护,有须要的小伙伴后盾回复 [gin] 即可下载。

翻译了一份 Machinery 中文文档,会定期进行保护,有须要的小伙伴们后盾回复 [machinery] 即可获取。

我是 asong,一名普普通通的程序猿,让 gi 我一起缓缓变强吧。我本人建了一个 golang 交换群,有须要的小伙伴加我vx, 我拉你入群。欢送各位的关注,咱们下期见~~~

举荐往期文章:

  • machinery-go 异步工作队列
  • 十张动图带你搞懂排序算法(附 go 实现代码)
  • Go 语言相干书籍举荐(从入门到放弃)
  • go 参数传递类型
  • 手把手教姐姐写音讯队列
  • 常见面试题之缓存雪崩、缓存穿透、缓存击穿
  • 详解 Context 包,看这一篇就够了!!!
  • go-ElasticSearch 入门看这一篇就够了(一)
  • 面试官:go 中 for-range 应用过吗?这几个问题你能解释一下起因吗
  • 学会 wire 依赖注入、cron 定时工作其实就这么简略!
  • 据说你还不会 jwt 和 swagger- 饭我都不吃了带着实际我的项目我就来了
  • 把握这些 Go 语言个性,你的程度将进步 N 个品位(二)

正文完
 0