上一篇,咱们针对分布式日志存储方案设计做了一个实践上的剖析与总结,文章地址。本文咱们将联合其中的一种计划进行实战代码的演示。另外一种计划,将在下一篇文章进行分享,此篇文章分享的是MongoDB架构模式。在知乎上公布该文章时,有人提到应用opentelemtry+tsdb,感兴趣的能够去理解一下。
架构模式
通过上一篇的剖析,咱们大抵总结出这样的一个架构设计,架构图如下:
- 业务A、业务B、业务C和业务D示意咱们理论的接口地址。当客户端发送申请时,间接的解决模块。系统日志的生成也是在该模块中进行生成。
- MQ服务,则是作为日志队列,长期存储日志音讯。这样是为了进步日志的解决能力。在高并发的业务场景中,如果实时的将日志写入到MongoDB中,这样难免会升高业务解决的速度。
- MongoDB服务,则是最终的日志落地。也就是说将咱们的日志存储到磁盘,以达到数据的长久化,防止数据失落。
- 对于零碎的日志查看,咱们能够间接登录MongoDB服务进行SQL查问。个别为了效率、平安等起因,会提供一个治理界面来实时查看MongoDB的日志。这里就是咱们的web展现界面。能够通过web界面对日志做查问、筛选、删除等操作。
下面提到的是一个架构的大抵流程图。上面将具体的代码演示,须要查看代码的能够通过Github仓库地址获取。
代码演示
代码中要操作RabbitMQ服务、MongoDB服务、API业务逻辑解决和其余的服务,我这里将代码调用逻辑设计为如下构造。
magin.go(入口文件)->api(业务解决)->rabbitmq(日志生产者、消费者)->MongoDB(日志长久化)。
整顿代码架构如下:
代码阐明
上面列举几个应用到的技术栈以及对应的版本,可能须要在应用本代码时,须要留神一下这些服务的版本兼容,防止代码无奈运行。
- Go version 1.16。
- RabbitMQ version 3.10.0。
- MongoDB version v5.0.7。
上面对几个略微重要的代码段,进行简略阐明,残缺代码间接查看Github仓库即可。
入口文件
package mainimport ( "fmt" "net/http" "github.com/gin-gonic/gin" "gologs/api")func main() { r := gin.Default() // 定义一个order-api的路由地址,并做对应的接口返回 r.GET("/order", func(ctx *gin.Context) { orderApi, err := api.OrderApi() if err != nil { ctx.JSON(http.StatusInternalServerError, gin.H{ "code": 1, "msg": orderApi, "data": map[string]interface{}{}, }) } ctx.JSON(http.StatusOK, gin.H{ "code": 1, "msg": orderApi, "data": map[string]interface{}{}, }) }) // 指定服务地址和端口号 err := r.Run(":8081") if err != nil { fmt.Println("gin server fail, fail reason is ", err) }}
订单业务逻辑
package apiimport ( "time" "gologs/rabbit")// 订单业务逻辑解决,并调用Rabbit服务投递order日志func OrderApi() (string, error) { orderMsg := make(map[string]interface{}) orderMsg["time"] = time.Now() orderMsg["type"] = "order" err := rabbit.SendMessage(orderMsg) if err != nil { return "write rabbitmq log fail", err } return "", nil}
RabbitMQ解决日志
package rabbitimport ( "encoding/json" "github.com/streadway/amqp" "gologs/com")func SendMessage(msg map[string]interface{}) error { channel := Connection() declare, err := channel.QueueDeclare("logs", false, false, false, false, nil) if err != nil { com.FailOnError(err, "RabbitMQ declare queue fail!") return err } marshal, err := json.Marshal(msg) if err != nil { return err } err = channel.Publish( "", declare.Name, false, false, amqp.Publishing{ ContentType: "text/plain", // message type Body: marshal, // message body DeliveryMode: amqp.Persistent, }) if err != nil { com.FailOnError(err, "rabbitmq send message fail!") return err } return nil}
消费者生产音讯
package rabbitimport ( "encoding/json" "fmt" "time" "gologs/com" "gologs/mongo")func ConsumerMessage() { channel := Connection() declare, err := channel.QueueDeclare("logs", false, false, false, false, nil) if err != nil { com.FailOnError(err, "queue declare fail") } consume, err := channel.Consume( declare.Name, "", true, false, false, false, nil, ) if err != nil { com.FailOnError(err, "message consumer failt") } for d := range consume { msg := make(map[string]interface{}) err := json.Unmarshal(d.Body, &msg) fmt.Println(msg) if err != nil { com.FailOnError(err, "json parse error") } one, err := mongo.InsertOne(msg["type"].(string), msg) if err != nil { com.FailOnError(err, "mongodb insert fail") } fmt.Println(one) time.Sleep(time.Second * 10) }}
调用MongoDB长久化日志
package mongoimport ( "context" "errors" "gologs/com")func InsertOne(collectionName string, logs map[string]interface{}) (interface{}, error) { collection := Connection().Database("logs").Collection(collectionName) one, err := collection.InsertOne(context.TODO(), logs) if err != nil { com.FailOnError(err, "write mongodb log fail") return "", errors.New(err.Error()) } return one.InsertedID, nil}
实战演示
下面大抵分享了代码逻辑,接下来演示代码的运行成果。
启动服务
启动服务,须要进入到log是目录上面,main.go
就是理论的入口文件。
启动日志消费者
启动日志消费者,保障一旦有日志,消费者能把日志实时存储到MongoDB中。同样的须要到logs目录下执行该命令。
go run rabbit_consumer.go
调用API服务
为了演示,这里间接应用浏览器去拜访该order对应的接口地址。http://127.0.0.1:8081/order
。接口返回如下信息:
如果code是1则示意接口胜利,反之是不胜利,须要在调用的时候留神一下。
这里能够多拜访几次,查看RabbitMQ中的队列信息。如果消费者生产的比较慢,应该能够看到如下信息:
消费者监控
因为咱们在启动服务时,就独自开启了一个消费者线程,这个线程失常状况下时始终作为后台程序在运行。咱们能够查看大抵的生产数据内容,如下图:
MongoDB查看数据
RabbitMQ消费者将日志信息存储到MongoDB中,接下来间接通过MongoDB进行查问。
db.order.find();[ { "_id": {"$oid": "627675df5f796f95ddb9bbf4"}, "time": "2022-05-07T21:36:02.374928+08:00", "type": "order" }, { "_id": {"$oid": "627675e95f796f95ddb9bbf6"}, "time": "2022-05-07T21:36:02.576065+08:00", "type": "order" } ................]
文末总结
对于该架构的总体演示,就到此结束。当然还有很多细节须要欠缺,此篇内容次要是分享一个大抵的流程。下一篇咱们将分享如何在Linux上大家ELK环境,以便咱们前期做理论代码演示。