在上一篇文章中我实现了一个反对Debug、Info、Error等多个级别的日志库,并将日志写到了磁盘文件中,代码比较简单,适宜练手。有趣味的能够通过这个链接返回:https://github.com/bosima/ylo...

工程实际中,咱们往往还须要对日志进行采集,将日志归集到一起,而后用于各种解决剖析,比方生产环境上的谬误剖析、异样告警等等。在日志音讯零碎畛域,Kafka久负盛名,这篇文章就以将日志发送到Kafka来实现日志的采集;同时思考到日志剖析时对结构化数据的需要,这篇文章还会提供一种输入Json格局日志的办法。

这个升级版的日志库还要放弃向前兼容,即还可能应用一般文本格式,以及写日志到磁盘文件,这两个个性和要新增的两个性能别离属于同类解决,因而我这里对它们进行形象,造成两个接口:格式化接口、写日志接口。

格式化接口

所谓格式化,就是日志的格局解决。这个日志库目前要反对两种格局:一般文本和Json。

为了在不同格局之上提供一个对立的形象,ylog中定义 logEntry 来代表一条日志:

type logEntry struct {    Ts    time.Time `json:"ts"`    File  string    `json:"file"`    Line  int       `json:"line"`    Level LogLevel  `json:"level"`    Msg   string    `json:"msg"`}

格式化接口的能力就是将日志从logEntry格局转化为其它某种数据格式。ylog中对它的定义是:

type LoggerFormatter interface {    Format(*logEntry, *[]byte) error}

第1个参数是一个logEntry实例,也就是要被格式化的日志,第2个参数是日志格式化之后要写入的容器。

一般文本格式化器

其实现是这样的:

type textFormatter struct {}func NewTextFormatter() *textFormatter {    return &textFormatter{}}func (f *textFormatter) Format(entry *logEntry, buf *[]byte) error {    formatTime(buf, entry.Ts)    *buf = append(*buf, ' ')    file := toShort(entry.File)    *buf = append(*buf, file...)    *buf = append(*buf, ':')    itoa(buf, entry.Line, -1)    *buf = append(*buf, ' ')    *buf = append(*buf, levelNames[entry.Level]...)    *buf = append(*buf, ' ')    *buf = append(*buf, entry.Msg...)    return nil}

能够看到它的次要性能就是将logEntry中的各个字段依照某种程序平铺开来,两头用空格分隔。

其中的很多数据处理办法参考了Golang规范日志库中的数据格式化解决代码,有趣味的能够去Github中具体查看。

这里对日期工夫格式化为字符串做了特地的优化,在规范日志库中为了将年、月、日、时、分、秒、毫秒、微秒等格式化指定长度的字符串,应用了一个函数:

func itoa(buf *[]byte, i int, wid int) {    // Assemble decimal in reverse order.    var b [20]byte    bp := len(b) - 1    for i >= 10 || wid > 1 {        wid--        q := i / 10        b[bp] = byte('0' + i - q*10)        bp--        i = q    }    // i < 10    b[bp] = byte('0' + i)    *buf = append(*buf, b[bp:]...)}

其逻辑大略就是将数字中的每一位转换为字符并存入byte中,留神这里初始化byte数组的时候是20位,这是int64最大的数字位数。

其实工夫字符串中的每个局部位数都是固定的,比方年是4位、月日时分秒都是2位,基本不须要20位,所以这个空间能够节俭;还有这里用了循环,这对于CPU的分支预测可能有那么点影响,所以我这里别离对不同位数写了专门的格式化办法,以2位数为例:

func itoa2(buf *[]byte, i int) {    q := i / 10    s := byte('0' + i - q*10)    f := byte('0' + q)    *buf = append(*buf, f, s)}

Json文本格式化器

其实现是这样的:

type jsonFormatter struct {}func NewJsonFormatter() *jsonFormatter {    return &jsonFormatter{}}func (f *jsonFormatter) Format(entry *logEntry, buf *[]byte) (err error) {    entry.File = toShortFile(entry.File)    jsonBuf, err := json.Marshal(entry)    *buf = append(*buf, jsonBuf...)    return}

代码也很简略,应用规范库的json序列化办法将logEntry实例转化为Json格局的数据。

对于Json格局,后续思考反对用户自定义Json字段,这里临时先简略解决。

写日志接口

写日志就是将日志输入到别的指标,比方ylog要反对的输入到磁盘文件、输入到Kafka等。

前边格式化接口将格式化后的数据封装到了 []byte 中,写日志接口就是将格式化解决的输入 []byte 写到某种输入指标中。参考Golang中各种Writer的定义,ylog中对它的定义是:

type LoggerWriter interface {    Ensure(*logEntry) error    Write([]byte) error    Sync() error    Close() error}

这里有4个办法:

  • Ensure 确保输入指标曾经筹备好接收数据,比方关上要写入的文件、创立Kafka连贯等等。
  • Write 向输入指标写数据。
  • Sync 要求输入指标将缓存长久化,比方写数据到磁盘时,操作系统会有缓存,通过这个办法要求缓存数据写入磁盘。
  • Close 写日志完结,敞开输入指标。

写日志到文件

这里定义一个名为fileWriter的类型,它须要实现LoggerWriter的接口。

先看类型的定义:

type fileWriter struct {    file     *os.File    lastHour int64    Path     string}

蕴含四个字段:

  • file 要输入的文件对象。
  • lastHour 依照小时创立文件的须要。
  • Path 日志文件的根门路。

再看其实现的接口:

func (w *fileWriter) Ensure(entry *logEntry) (err error) {    if w.file == nil {        f, err := w.createFile(w.Path, entry.Ts)        if err != nil {            return err        }        w.lastHour = w.getTimeHour(entry.Ts)        w.file = f        return nil    }    currentHour := w.getTimeHour(entry.Ts)    if w.lastHour != currentHour {        _ = w.file.Close()        f, err := w.createFile(w.Path, entry.Ts)        if err != nil {            return err        }        w.lastHour = currentHour        w.file = f    }    return}func (w *fileWriter) Write(buf []byte) (err error) {    buf = append(buf, '\n')    _, err = w.file.Write(buf)    return}func (w *fileWriter) Sync() error {    return w.file.Sync()}func (w *fileWriter) Close() error {    return w.file.Close()}

Ensure 中的次要逻辑是创立以后要写入的文件对象,如果小时数变了,先把之前的敞开,再创立一个新的文件。

Write 把数据写入到文件对象,这里加了一个换行符,也就是说对于文件日志,其每条日志最初都会有一个换行符,这样比拟不便浏览。

Sync 调用文件对象的Sync办法,将日志从操作系统缓存刷到磁盘。

Close 敞开以后文件对象。

写日志到Kafka

这里定义一个名为kafkaWriter的类型,它也须要实现LoggerWriter的接口。

先看其构造体定义:

type kafkaWriter struct {    Topic     string    Address   string    writer    *kafka.Writer    batchSize int}

这里蕴含四个字段:

Topic 写Kafka时须要一个主题,这里默认以后Logger中所有日志应用同一个主题。

Address Kafka的拜访地址。

writer 向Kafka写数据时应用的Writer,这里集成的是:github.com/segmentio/kafka-go,反对主动重试和重连。

batchSize Kafka写日志的批次大小,批量写能够进步日志的写效率。

再看其实现的接口:

func (w *kafkaWriter) Ensure(curTime time.Time) (err error) {    if w.writer == nil {        w.writer = &kafka.Writer{            Addr:      kafka.TCP(w.Address),            Topic:     w.Topic,            BatchSize: w.batchSize,            Async:     true,        }    }    return}func (w *kafkaWriter) Write(buf []byte) (err error) {    // buf will be reused by ylog when this method return,    // with aysnc write, we need copy data to a new slice    kbuf := append([]byte(nil), buf...)    err = w.writer.WriteMessages(context.Background(),        kafka.Message{Value: kbuf},    )    return}func (w *kafkaWriter) Sync() error {    return nil}func (w *kafkaWriter) Close() error {    return w.writer.Close()}

这里采纳的是异步发送到Kafka的形式,WriteMessages办法不会阻塞,因为传入的buf要被ylog重用,所以这里copy了一下。异步还会存在的一个问题就是不会返回谬误,可能失落数据,不过对于日志这种数据,没有那么严格的要求,也能够承受。

如果采纳同步发送,因为批量发送比拟有效率,这里能够攒几条再发,但日志比拟稠密时,可能短时间很难攒够,就会呈现长时间等不到日志的状况,所以还要有个超时机制,这有点麻烦,不过我也写了一个版本,有趣味的能够去看看:https://github.com/bosima/ylo...

接口的组装

有了格式化接口和写日志接口,下一步就是将它们组装起来,以实现相应的解决能力。

首先是创立它们,因为我这里也没有动静配置的需要,所以就放到创立Logger实例的时候了,这样比较简单。

func NewYesLogger(opts ...Option) (logger *YesLogger) {    logger = &YesLogger{}    ...    logger.writer = NewFileWriter("logs")    logger.formatter = NewTextFormatter()    for _, opt := range opts {        opt(logger)    }    ...    return}

能够看到默认的formatter是textFormatter,默认的writer是fileWriter。这个函数传入的Option其实是个函数,在下边的opt(logger)中会执行它们,所以应用其它的Formatter或者Writer能够这样做:

logger := ylog.NewYesLogger(        ...        ylog.Writer(ylog.NewKafkaWriter(address, topic, writeBatchSize)),        ylog.Formatter(ylog.NewJsonFormatter()),)

这里 ylog.Writer 和 ylog.Formatter 就是合乎Option类型的函数,调用它们能够设置不同的Formatter和Writer。

而后怎么应用它们呢?

...l.formatter.Format(entry, &buf)l.writer.Ensure(entry)err := l.writer.Write(buf)...

当 logEntry 进入音讯解决环节后,首先调用formatter的Format办法格式化logEntry;而后调用了writer的Ensure办法确保writer曾经筹备好,最初调用writer的Write办法将格式化之后的数据输入到对应的指标。

为什么不将Ensure办法放到Write中呢?这是因为目前写文本日志的时候须要依据logEntry中的日志工夫创立日志文件,这样就须要给Writer传递两个参数,有点顺当,所以这里将它们离开了。

如何进步日志解决的吞吐量

Kafka的吞吐量是很高的,那么如果放到ylog本身来说,如何进步它的吞吐量呢?

首先想到的就是Channel,能够应用有缓冲的Channel模仿一个队列,生产者不停的向Channel发送数据,如果Writer能够始终在缓冲被填满之前将数据取走,那么实践上说生产者就是非阻塞的,相比同步输入到某个Writer,没有间接磁盘IO、网络IO,日志解决的吞吐量必将大幅晋升。

定义一个Channel,其容量默认为以后机器逻辑处理器的数量:

logger.pipe = make(chan *logEntry, runtime.NumCPU())

发送数据的代码:

entry := &logEntry{        Level: level,        Msg:   s,        File:  file,        Line:  line,        Ts:    now,    }    l.pipe <- entry

接收数据的代码:

    for {        select {        case entry := <-l.pipe:            // reuse the slice memory            buf = buf[:0]            l.formatter.Format(entry, &buf)            l.writer.Ensure(entry.Ts)            err := l.writer.Write(buf)        ...        }    }

实际效果怎么样呢?看下Benchmark:

goos: darwingoarch: amd64pkg: github.com/bosima/ylogcpu: Intel(R) Core(TM) i5-8259U CPU @ 2.30GHzBenchmarkInfo-8        1332333           871.6 ns/op         328 B/op           4 allocs/op

这个后果能够和zerolog、zap等高性能日志库一较高下了,当然目前能够做的事件要比它们简略很多。

如果对Java有所理解的同学应该据说过log4j,在log4j2中引入了一个名为Disruptor的组件,它让日志解决飞快了起来,受到很多Java开发者的追捧。Disruptor之所以这么厉害,是因为它应用了无锁并发、环形队列、缓存行填充等多种高级技术。

相比之下,Golang的Channel尽管也应用了环形缓冲,然而还是应用了锁,作为队列来说性能并不是最优的。

Golang中有没有相似的货色呢?最近进去的ZenQ可能是一个不错的抉择,不过看似还不太稳固,过段时间再尝试下。有趣味的能够去看看:https://github.com/alphadose/... 。


好了,以上就是本文的次要内容。对于ylog的介绍也告一段落了,后续会在Github上继续更新,减少更多有用的性能,并一直优化解决性能,欢送关注:https://github.com/bosima/ylog 。

播种更多架构常识,请关注微信公众号 萤火架构。原创内容,转载请注明出处。