Leaf-Segment

简介:明天间接单刀直入,先来介绍一下我明天所带来的货色。没错,看题目想必大家曾经想到了 —— Leaf-segment数据库获取ID计划。这个计划曾经脍炙人口了,美团早就进行了开源,不过他是由java来实现的,所以最近为了学习这一方面常识,我用go本人实现了一下,目前本人验证是没有发现什么bug,期待大家的测验,发现bug可及时反馈(提mr或加我vx都可)。

代码已收录到我的集体仓库——[go-算法系列(go-algorithm)](https://github.com/asong2020/...。

欢送Star,感激各位~~~。

注:下文leaf-segment数据库方案设计间接参考美团(摘取局部)。具体请参阅:https://tech.meituan.com/2017...

疾速应用

创立数据库

CREATE TABLE `leaf_alloc` (  `id` int(11) NOT NULL AUTO_INCREMENT,  `biz_tag` varchar(128)  NOT NULL DEFAULT '',  `max_id` bigint(20) NOT NULL DEFAULT '1',  `step` int(11) NOT NULL,  `description` varchar(256)  DEFAULT NULL,  `update_time` bigint(20) NOT NULL DEFAULT '0',  PRIMARY KEY (`id`),  UNIQUE KEY (`biz_tag`)) ENGINE=InnoDB;

也能够间接应用我曾经生成好的SQL文件(已在工程项目中)。各个字段的介绍我会在后文代码实现局部进行解析,这里就不一一解析了。

获取并运行我的项目

// 1 新建文件目录$ mdkir asong.cloud$ cd asong.cloud// 2 获取我的项目$ git clone git@github.com:asong2020/go-algorithm.git// 3 进入我的项目目录$ cd go-go-algorithm/leaf// 4 运行$ go run main.go //运行

测试

创立业务号段

URI: POST http://localhost:8080/api/leafParam(json):{    "biz_tag": "test_create_one",    "max_id":  1, // 能够不传 默认为1    "step": 2000, // 能够不传 默认为200    "descprition": "test api one"}
  • 示例:
curl --location --request POST 'http://localhost:8080/api/leaf' \--header 'Content-Type: application/json' \--data-raw '{    "biz_tag": "test_create_one",    "descprition": "test api one"}'

初始化DB中的号段到内存中

URI: PUT http://localhost:8080/api/leaf/init/cacheParam(json):{    "biz_tag": "test_create"}
  • 示例
curl --location --request PUT 'http://localhost:8080/api/leaf/init/cache' \--header 'Content-Type: application/json' \--data-raw '{    "biz_tag": "test_create"}'

获取ID

URI: GET http://localhost:8080/api/leafParam: ?biz_tag=test_create
  • 示例
curl --location --request GET 'http://localhost:8080/api/leaf?biz_tag=test_create'

更新step

URI: PUT http://localhost:8080/api/leaf/stepParam(json):{    "step":   10000,    "biz_tag": "test_create"}
  • 示例
curl --location --request PUT 'http://localhost:8080/api/leaf/step' \--header 'Content-Type: application/json' \--data-raw '{    "step": 10000,    "biz_tag": "test_create"}'

Leaf-Segment计划实现

背景

在简单分布式系统中,往往须要对大量的数据和音讯进行惟一标识。一个可能生成全局惟一ID的零碎是十分必要的。比方某宝,业务散布宽泛,这么多业务对数据分库分表后须要有一个惟一ID来标识一条数据或音讯,数据库的自增ID显然不能满足需要;所以,咱们能够总结一下业务系统对ID号的要求有哪些呢?

  1. 全局唯一性:不能呈现反复的ID号,既然是惟一标识,这是最根本的要求。
  2. 趋势递增:在MySQL InnoDB引擎中应用的是汇集索引,因为少数RDBMS应用B-tree的数据结构来存储索引数据,在主键的抉择下面咱们应该尽量应用有序的主键保障写入性能。
  3. 枯燥递增:保障下一个ID肯定大于上一个ID,例如事务版本号、IM增量音讯、排序等非凡需要。
  4. 信息安全:如果ID是间断的,歹意用户的扒取工作就非常容易做了,间接依照程序下载指定URL即可;如果是订单号就更危险了,竞对能够间接晓得咱们一天的单量。所以在一些利用场景下,会须要ID无规则、不规则。

上述123对应三类不同的场景,3和4需要还是互斥的,无奈应用同一个计划满足。

本文只讲述场景3的计划,即leaf-segment。场景4能够用雪花算法实现,这个我之前实现过了,有趣味的童鞋能够参考一下。传送门:https://github.com/asong2020/...

数据库生成

leaf-sement是在应用数据库生成计划上做的改良。这里先抛砖引玉一下,看一下数据库生成计划是怎么实现的。

以MySQL举例,利用给字段设置auto_increment_incrementauto_increment_offset来保障ID自增,每次业务应用下列SQL读写MySQL失去ID号。

begin;REPLACE INTO Tickets64 (stub) VALUES ('a');SELECT LAST_INSERT_ID();commit;

这种计划的优缺点如下:

长处:

  • 非常简单,利用现有数据库系统的性能实现,老本小,有DBA业余保护。
  • ID号枯燥自增,能够实现一些对ID有特殊要求的业务。

毛病:

  • 强依赖DB,当DB异样时整个零碎不可用,属于致命问题。配置主从复制能够尽可能的减少可用性,然而数据一致性在非凡状况下难以保障。主从切换时的不统一可能会导致反复发号。
  • ID发号性能瓶颈限度在单台MySQL的读写性能。

对于MySQL性能问题,可用如下计划解决:在分布式系统中咱们能够多部署几台机器,每台机器设置不同的初始值,且步长和机器数相等。比方有两台机器。设置步长step为2,TicketServer1的初始值为1(1,3,5,7,9,11…)、TicketServer2的初始值为2(2,4,6,8,10…)。这是Flickr团队在2010年撰文介绍的一种主键生成策略(Ticket Servers: Distributed Unique Primary Keys on the Cheap )。如下所示,为了实现上述计划别离设置两台机器对应的参数,TicketServer1从1开始发号,TicketServer2从2开始发号,两台机器每次发号之后都递增2。

TicketServer1:auto-increment-increment = 2auto-increment-offset = 1TicketServer2:auto-increment-increment = 2auto-increment-offset = 2

假如咱们要部署N台机器,步长需设置为N,每台的初始值顺次为0,1,2…N-1那么整个架构就变成了如下图所示:

这种架构貌似可能满足性能的需要,但有以下几个毛病:

  • 零碎程度扩大比拟艰难,比方定义好了步长和机器台数之后,如果要增加机器该怎么做?假如当初只有一台机器发号是1,2,3,4,5(步长是1),这个时候须要扩容机器一台。能够这样做:把第二台机器的初始值设置得比第一台超过很多,比方14(假如在扩容工夫之内第一台不可能发到14),同时设置步长为2,那么这台机器下发的号码都是14当前的偶数。而后摘掉第一台,把ID值保留为奇数,比方7,而后批改第一台的步长为2。让它合乎咱们定义的号段规范,对于这个例子来说就是让第一台当前只能产生奇数。扩容计划看起来简单吗?貌似还好,当初设想一下如果咱们线上有100台机器,这个时候要扩容该怎么做?几乎是噩梦。所以零碎程度扩大计划简单难以实现。
  • ID没有了枯燥递增的个性,只能趋势递增,这个毛病对于个别业务需要不是很重要,能够容忍。
  • 数据库压力还是很大,每次获取ID都得读写一次数据库,只能靠堆机器来进步性能

Leaf-Segment数据库计划

Leaf-Segment数据库计划是在下面的数据库生成计划上做的改良。

做了如下扭转: - 原计划每次获取ID都得读写一次数据库,造成数据库压力大。改为利用proxy server批量获取,每次获取一个segment(step决定大小)号段的值。用完之后再去数据库获取新的号段,能够大大的加重数据库的压力。 - 各个业务不同的发号需要用biz_tag字段来辨别,每个biz-tag的ID获取互相隔离,互不影响。如果当前有性能需求须要对数据库扩容,不须要上述形容的简单的扩容操作,只须要对biz_tag分库分表就行。

数据库表设计如下:

CREATE TABLE `leaf_alloc` (  `id` int(11) NOT NULL AUTO_INCREMENT,  `biz_tag` varchar(128)  NOT NULL DEFAULT '',  `max_id` bigint(20) NOT NULL DEFAULT '1',  `step` int(11) NOT NULL,  `description` varchar(256)  DEFAULT NULL,  `update_time` bigint(20) NOT NULL DEFAULT '0',  PRIMARY KEY (`id`),  UNIQUE KEY (`biz_tag`)) ENGINE=InnoDB;

这里我仍旧应用了一个自增主键,不过没什么用,能够疏忽。biz_tag用来辨别业务(所以我把它设置成了惟一索引),max_id示意该biz_tag目前所被调配的ID号段的最大值,step示意每次调配的号段长度。原来获取ID每次都须要写数据库,当初只须要把step设置得足够大,比方1000。那么只有当1000个号被耗费完了之后才会去从新读写一次数据库。读写数据库的频率从1减小到了1/step,大抵架构如下图所示:

test_tag在第一台Leaf机器上是1~1000的号段,当这个号段用完时,会去加载另一个长度为step=1000的号段,假如另外两台号段都没有更新,这个时候第一台机器新加载的号段就应该是3001~4000。同时数据库对应的biz_tag这条数据的max_id会从3000被更新成4000,更新号段的SQL语句如下:

BeginUPDATE table SET max_id=max_id+step WHERE biz_tag=xxxSELECT tag, max_id, step FROM table WHERE biz_tag=xxxCommit

这种模式有以下优缺点:

长处:

  • Leaf服务能够很不便的线性扩大,性能齐全可能撑持大多数业务场景。
  • ID号码是趋势递增的8byte的64位数字,满足上述数据库存储的主键要求。
  • 容灾性高:Leaf服务外部有号段缓存,即便DB宕机,短时间内Leaf仍能失常对外提供服务。
  • 能够自定义max_id的大小,十分不便业务从原有的ID形式上迁徙过去。

毛病:

  • ID号码不够随机,可能泄露发号数量的信息,不太平安。
  • TP999数据稳定大,当号段应用完之后还是会hang在更新数据库的I/O上,tg999数据会呈现偶然的尖刺。
  • DB宕机会造成整个零碎不可用。

双buffer优化

对于第二个毛病,Leaf-segment做了一些优化,简略的说就是:

Leaf 取号段的机会是在号段耗费完的时候进行的,也就意味着号段临界点的ID下发工夫取决于下一次从DB取回号段的工夫,并且在这期间进来的申请也会因为DB号段没有取回来,导致线程阻塞。如果申请DB的网络和DB的性能稳固,这种状况对系统的影响是不大的,然而如果取DB的时候网络产生抖动,或者DB产生慢查问就会导致整个零碎的响应工夫变慢。

为此,咱们心愿DB取号段的过程可能做到无阻塞,不须要在DB取号段的时候阻塞申请线程,即当号段生产到某个点时就异步的把下一个号段加载到内存中。而不须要等到号段用尽的时候才去更新号段。这样做就能够很大水平上的升高零碎的TP999指标。具体实现如下图所示:

采纳双buffer的形式,Leaf服务外部有两个号段缓存区segment。以后号段已下发10%时,如果下一个号段未更新,则另启一个更新线程去更新下一个号段。以后号段全副下发完后,如果下个号段筹备好了则切换到下个号段为以后segment接着下发,周而复始。

  • 每个biz-tag都有生产速度监控,通常举荐segment长度设置为服务高峰期发号QPS的600倍(10分钟),这样即便DB宕机,Leaf仍能继续发号10-20分钟不受影响。
  • 每次申请来长期都会判断下个号段的状态,从而更新此号段,所以偶然的网络抖动不会影响下个号段的更新。

代码实现

终于到本文的重点了,上面就给大家解说一下我是怎么实现的。

代码架构

这里先贴一下我的代码架构,具体如下:

leaf├── common -- common包,放的是一些client初始的代码├── conf   -- conf包,配置文件├── config -- config包,读取配置文件代码局部├── dao    -- dao包,DB操作局部├── handler -- hanler包,路由注册即API代码实现局部├── images -- 本文的图片文件├── model -- model包,db模型或其余模型├── service -- service包,逻辑实现局部├── wire    -- wire包,依赖绑定├── leaf_svr.go -- main运行先置条件└── main.go -- main函数

实现剖析

在咱们实现之前,必定要剖析一波,咱们要做什么,怎么做?我老大常常跟我说的一句话:"先把需要剖析明确了,再入手,返工反而是浪费时间"。

  1. 首先咱们要把一段号段存从DB中拿到存到内存中,并且可能同时存在很多业务,这里我就想到用map来存,应用biz_tag来作为key,因为它具备唯一性,并且能很快的定位。所以咱们能够定义一个这样的构造体作为全局ID散发器:
// 全局分配器// key: biz_tag value: SegmentBuffertype LeafSeq struct {    cache sync.Map}

这里思考到并发操作,所以应用sync.map,因为他是并发平安的。

  1. 确定了ID怎么存,接下来咱们就要思考,咱们存什么样的构造比拟适合。这里我决定间接实现"双buffer优化"的计划。这里我筹备本人定义struct,而后用切片来模仿双buffer。所以能够设计如下构造:
// 号段type LeafSegment struct {    Cursor uint64 // 以后发放地位    Max    uint64 // 最大值    Min    uint64 // 开始值即最小值    InitOk bool   // 是否初始化胜利}

字段阐明:首先要有一个字段来记录以后数据发放到什么地位了,Cursor就是来做这个的。其次咱们还要把范畴固定住,也是这个号段的开始和完结,也就是minmax字段的作用。最初咱们还要思考一个问题,既然咱们应用的双buffer,也就是说咱们并不能确定下一段buffer是否可用,所以加了一个initOK字段来进行表明。

  1. 下面也设计好了号段怎么存,接下来咱们设计怎么线程平安的把这些id有序的发放进来,所以能够设计如下构造:
type LeafAlloc struct {    Key        string                 // 也就是`biz_tag`用来辨别业务    Step       int32                  // 记录步长    CurrentPos int32                  // 以后应用的 segment buffer光标; 总共两个buffer缓存区,循环应用    Buffer     []*LeafSegment         // 双buffer 一个作为预缓存作用    UpdateTime time.Time              // 记录更新工夫 不便长时间不必进行清理,避免占用内存    mutex      sync.Mutex             // 互斥锁    IsPreload  bool                   // 是否正在预加载    Waiting    map[string][]chan byte // 挂起期待}

字段介绍:key也就是咱们的biz_tag,能够用它疾速从map中定义数据。Step记录以后号段的步长,因为步长是能够动静扭转的,所以这里须要记录一下。currentPos这个齐全是记录以后应用buffer,因为是双buffer,所以须要定位。buffer这个不必介绍大家也应该晓得,就是缓存池。Update_time这个字段大多人可能想不到为什么会有这个,咱们的号段当初都存到内存当中了,那么当咱们的业务变多了当前,那么内存就会越占越多,所以咱们须要记录他的更新工夫,这样咱们能够应用一个定时器定期去革除长时间不应用的号段,节俭内存。IsPreload这个字段是给预加载应用,以后缓冲区的号段应用了90%后,咱们就会去预加载下一段缓存池,为了避免多次重复加载,所以应用该字段做标识。waiting这里我应用的是map+chan的联合,这里的作用就是当咱们以后缓存池的号段耗费的比拟快或者预加载失败了,就会导致当初没有缓存池可用,所以咱们能够去期待一会,因为当初有可能正在做预加载,这样能够放弃零碎的高可用,如果超时仍未等到预加载胜利则返回失败,下一次调用即可。

根本思维就是这样啦,上面咱们就分块看一下代码。

先从DB层走起

我这个人写代码,爱从DB层开始,也就是把我须要的CRUD操作都提前写好并测试,这里就不贴每段代码的实现了,要不代码量有点大,并且也没有必要,间接介绍一下有哪些办法就能够了。

func (l *LeafDB) Create(ctx context.Context, leaf *model.Leaf) error {}func (l *LeafDB) Get(ctx context.Context, bizTag string, tx *sql.Tx) (*model.Leaf, error) {}func (l *LeafDB) UpdateMaxID(ctx context.Context, bizTag string, tx *sql.Tx) error {}func (l *LeafDB) UpdateMaxIdByCustomStep(ctx context.Context, step int32, bizTag string, tx *sql.Tx) error {}func (l *LeafDB) GetAll(ctx context.Context) ([]*model.Leaf, error) {}func (l *LeafDB) UpdateStep(ctx context.Context, step int32, bizTag string) error {
  1. 创立leaf办法。
  2. 获取某个业务的号段
  3. 号段用完时是须要更新DB到下一个号段
  4. 依据自定义step更新DB到下一个号段
  5. 获取DB中所有的业务号段
  6. 更新DB中step

实现获取新号段局部的代码

先贴出我的代码:

func (l *LeafDao) NextSegment(ctx context.Context, bizTag string) (*model.Leaf, error) {    // 开启事务    tx, err := l.sql.Begin()    defer func() {        if err != nil {            l.rollback(tx)        }    }()    if err = l.checkError(err); err != nil {        return nil, err    }    err = l.db.UpdateMaxID(ctx, bizTag, tx)    if err = l.checkError(err); err != nil {        return nil, err    }    leaf, err := l.db.Get(ctx, bizTag, tx)    if err = l.checkError(err); err != nil {        return nil, err    }    // 提交事务    err = tx.Commit()    if err = l.checkError(err); err != nil {        return nil, err    }    return leaf, nil}func (l *LeafDao) checkError(err error) error {    if err == nil {        return nil    }    if message, ok := err.(*mysql.MySQLError); ok {        fmt.Printf("it's sql error; str:%v", message.Message)    }    return errors.New("db error")}func (l *LeafDao) rollback(tx *sql.Tx) {    err := tx.Rollback()    if err != sql.ErrTxDone && err != nil {        fmt.Println("rollback error")    }}

实现其实很简略,也就是先更新一下数据库中的号段,而后再取出来就能够了,这里为了保证数据的一致性和避免屡次更新DB导致号段失落,所以应用了事务,没有什么特地的点,看一下代码就能懂了。

初始化及获取ID

这里我把DB中的号段初始化到内存这一步和获取ID合到一起来说吧,因为在获取ID时会有兜底策略进行初始化。先看初始化局部代码:

// 第一次应用要初始化也就是把DB中的数据存到内存中,非必须操作,间接应用的话有兜底策略func (l *LeafService) InitCache(ctx context.Context, bizTag string) (*model.LeafAlloc, error) {    leaf, err := l.dao.NextSegment(ctx, bizTag)    if err != nil {        fmt.Printf("initCache failed; err:%v\n", err)        return nil, err    }    alloc := model.NewLeafAlloc(leaf)    alloc.Buffer = append(alloc.Buffer, model.NewLeafSegment(leaf))    _ = l.leafSeq.Add(alloc)    return alloc, nil}

这里步骤次要分两步:

  1. 从DB中获取以后业务的号段
  2. 保留到内存中,也就是存到map

之后是咱们来看一下咱们是如何获取id的,这里步骤比拟多了,也是最外围的中央了。

先看主流程:

func (l *LeafService) GetID(ctx context.Context, bizTag string) (uint64, error) {    // 先去内存中看一下是否曾经初始了,未初始化则开启兜底策略初始化一下。    l.mutex.Lock()    var err error    seqs := l.leafSeq.Get(bizTag)    if seqs == nil {        // 不存在初始化一下        seqs, err = l.InitCache(ctx, bizTag)        if err != nil {            return 0, err        }    }    l.mutex.Unlock()    var id uint64    id, err = l.NextID(seqs)    if err != nil {        return 0, err    }    l.leafSeq.Update(bizTag, seqs)    return id, nil}

次要分为三步:

  1. 先去内存中查看该业务是否曾经初始化了,未初始化则开启兜底策略进行初始化。
  2. 获取id
  3. 更新内存中的数据。

这里最终要的就是第二步,获取id,这里我先把代码贴出来,而后细细解说一下:

func (l *LeafService) NextID(current *model.LeafAlloc) (uint64, error) {    current.Lock()    defer current.Unlock()    var id uint64    currentBuffer := current.Buffer[current.CurrentPos]    // 判断以后buffer是否是可用的    if current.HasSeq() {        id = atomic.AddUint64(&current.Buffer[current.CurrentPos].Cursor, 1)        current.UpdateTime = time.Now()    }    // 以后号段已下发10%时,如果下一个号段未更新加载,则另启一个更新线程去更新下一个号段    if currentBuffer.Max-id < uint64(0.9*float32(current.Step)) && len(current.Buffer) <= 1 && !current.IsPreload {        current.IsPreload = true        cancel, _ := context.WithTimeout(context.Background(), 3*time.Second)        go l.PreloadBuffer(cancel, current.Key, current)    }    // 第一个buffer的segment应用实现 切换到下一个buffer 并移除当初的buffer    if id == currentBuffer.Max {        // 判断第二个buffer是否筹备好了(因为下面开启协程去更新下一个号段会呈现失败),筹备好了切换  currentPos 永远是0 不管怎么切换        if len(current.Buffer) > 1 && current.Buffer[current.CurrentPos+1].InitOk {            current.Buffer = append(current.Buffer[:0], current.Buffer[1:]...)        }        // 如果没筹备好,间接返回就好了,因为当初曾经调配id了, 前面会进行弥补    }    // 有id间接返回就能够了    if current.HasID(id) {        return id, nil    }    // 以后buffer曾经没有id可用了,此时弥补线程肯定正在运行,咱们期待一会    waitChan := make(chan byte, 1)    current.Waiting[current.Key] = append(current.Waiting[current.Key], waitChan)    // 开释锁 期待让其余客户端进行走后面的步骤    current.Unlock()    timer := time.NewTimer(500 * time.Millisecond) // 期待500ms最多    select {    case <-waitChan:    case <-timer.C:    }    current.Lock()    // 第二个缓冲区仍未初始化好    if len(current.Buffer) <= 1 {        return 0, errors.New("get id failed")    }    // 切换buffer    current.Buffer = append(current.Buffer[:0], current.Buffer[1:]...)    if current.HasSeq() {        id = atomic.AddUint64(&current.Buffer[current.CurrentPos].Cursor, 1)        current.UpdateTime = time.Now()    }    return id, nil}

这里我感觉用文字描述不分明,所以我画了个图,不晓得你们能不能看懂,能够对照着代码来看,这样是最清晰的,有问题欢送留言探讨:

预加载的流程也被我画下来了,预加载的步骤次要有三个:

  1. 获取某业务下一个阶段的号段
  2. 存储到缓存buffer中,留着备用.
  3. 唤醒以后正在挂起期待的客户端

代码实现如下:

func (l *LeafService) PreloadBuffer(ctx context.Context, bizTag string, current *model.LeafAlloc) error {    for i := 0; i < MAXRETRY; i++ {        leaf, err := l.dao.NextSegment(ctx, bizTag)        if err != nil {            fmt.Printf("preloadBuffer failed; bizTag:%s;err:%v", bizTag, err)            continue        }        segment := model.NewLeafSegment(leaf)        current.Buffer = append(current.Buffer, segment) // 追加        l.leafSeq.Update(bizTag, current)        current.Wakeup()        break    }    current.IsPreload = false    return nil}func (l *LeafAlloc) Wakeup() {    l.mutex.Lock()    defer l.mutex.Unlock()    for _, waitChan := range l.Waiting[l.Key] {        close(waitChan)    }    l.Waiting[l.Key] = l.Waiting[l.Key][:0]}

缓存清理

到这里,所有外围代码都曾经实现了,还差最初一步,就是清缓存,就像下面说到的,超长工夫不必的号段咱们就要革除它,不能让他沉积造成内存节约。这里我实现的是清理超过15min未应用的号段。实现也很简略,就是应用timer做一个定时器,每隔15min就去遍历存储号段的`map,把超过15min未更新的号段革除掉(尽管会造成号段节约,但也要这要做)。

// 清理超过15min没用过的内存func (l *LeafSeq) clear() {    for {        now := time.Now()        // 15分钟后        mm, _ := time.ParseDuration("15m")        next := now.Add(mm)        next = time.Date(next.Year(), next.Month(), next.Day(), next.Hour(), next.Minute(), 0, 0, next.Location())        t := time.NewTimer(next.Sub(now))        <-t.C        fmt.Println("start clear goroutine")        l.cache.Range(func(key, value interface{}) bool {            alloc := value.(*LeafAlloc)            if next.Sub(alloc.UpdateTime) > ExpiredTime {                fmt.Printf("clear biz_tag: %s cache", key)                l.cache.Delete(key)            }            return true        })    }}

总结

好啦,到这里就是靠近序幕了,下面就是我实现的整个过程,目前本人测试没有什么问题,前期还会在缝缝补补,大家也能够帮我找找问题,欢送提出你们贵重的倡议~~~。

代码已收录到我的集体仓库——[go-算法系列(go-algorithm)](https://github.com/asong2020/...。

欢送Star,感激各位~~~。

好啦,这一篇文章到这就完结了,咱们下期见~~。心愿对你们有用,又不对的中央欢送指出,可增加我的golang交换群,咱们一起学习交换。

结尾给大家发一个小福利吧,最近我在看[微服务架构设计模式]这一本书,讲的很好,本人也收集了一本PDF,有须要的小伙能够到自行下载。获取形式:关注公众号:[Golang梦工厂],后盾回复:[微服务],即可获取。

我翻译了一份GIN中文文档,会定期进行保护,有须要的小伙伴后盾回复[gin]即可下载。

翻译了一份Machinery中文文档,会定期进行保护,有须要的小伙伴们后盾回复[machinery]即可获取。

我是asong,一名普普通通的程序猿,让gi我一起缓缓变强吧。我本人建了一个golang交换群,有须要的小伙伴加我vx,我拉你入群。欢送各位的关注,咱们下期见~~~

举荐往期文章:

  • machinery-go异步工作队列
  • 十张动图带你搞懂排序算法(附go实现代码)
  • Go语言相干书籍举荐(从入门到放弃)
  • go参数传递类型
  • 手把手教姐姐写音讯队列
  • 常见面试题之缓存雪崩、缓存穿透、缓存击穿
  • 详解Context包,看这一篇就够了!!!
  • go-ElasticSearch入门看这一篇就够了(一)
  • 面试官:go中for-range应用过吗?这几个问题你能解释一下起因吗
  • 学会wire依赖注入、cron定时工作其实就这么简略!
  • 据说你还不会jwt和swagger-饭我都不吃了带着实际我的项目我就来了
  • 把握这些Go语言个性,你的程度将进步N个品位(二)