乐趣区

容器监控实践—Prometheus存储机制

概述
Prometheus 提供了本地存储,即 tsdb 时序数据库,本地存储给 Prometheus 带来了简单高效的使用体验,prometheus2.0 以后压缩数据能力也得到了很大的提升。可以在单节点的情况下满足大部分用户的监控需求。
但本地存储也限制了 Prometheus 的可扩展性,带来了数据持久化等一系列的问题。为了解决单节点存储的限制,prometheus 没有自己实现集群存储,而是提供了远程读写的接口,让用户自己选择合适的时序数据库来实现 prometheus 的扩展性。
Prometheus 1.x 版本的 TSDB(V2 存储引擎)基于 LevelDB,并且使用了和 Facebook Gorilla 一样的压缩算法,能够将 16 个字节的数据点压缩到平均 1.37 个字节。
Prometheus 2.x 版本引入了全新的 V3 存储引擎,提供了更高的写入和查询性能
以下所有内容均基于 prometheus2.7 版本
本地存储
存储原理
Prometheus 按 2 小时一个 block 进行存储,每个 block 由一个目录组成,该目录里包含:一个或者多个 chunk 文件(保存 timeseries 数据)、一个 metadata 文件、一个 index 文件(通过 metric name 和 labels 查找 timeseries 数据在 chunk 文件的位置)。
最新写入的数据保存在内存 block 中,达到 2 小时后写入磁盘。为了防止程序崩溃导致数据丢失,实现了 WAL(write-ahead-log)机制,启动时会以写入日志 (WAL) 的方式来实现重播,从而恢复数据。
删除数据时,删除条目会记录在独立的 tombstone 文件中,而不是立即从 chunk 文件删除。
通过时间窗口的形式保存所有的样本数据,可以明显提高 Prometheus 的查询效率,当查询一段时间范围内的所有样本数据时,只需要简单的从落在该范围内的块中查询数据即可。
这些 2 小时的 block 会在后台压缩成更大的 block,数据压缩合并成更高 level 的 block 文件后删除低 level 的 block 文件。这个和 leveldb、rocksdb 等 LSM 树的思路一致。
这些设计和 Gorilla 的设计高度相似,所以 Prometheus 几乎就是等于一个缓存 TSDB。它本地存储的特点决定了它不能用于 long-term 数据存储,只能用于短期窗口的 timeseries 数据保存和查询,并且不具有高可用性(宕机会导致历史数据无法读取)。
内存中的 block 数据未写入磁盘时,block 目录下面主要保存 wal 文件:
./data/01BKGV7JBM69T2G1BGBGM6KB12
./data/01BKGV7JBM69T2G1BGBGM6KB12/meta.json
./data/01BKGV7JBM69T2G1BGBGM6KB12/wal/000002
./data/01BKGV7JBM69T2G1BGBGM6KB12/wal/000001
持久化的 block 目录下 wal 文件被删除,timeseries 数据保存在 chunk 文件里。index 用于索引 timeseries 在 wal 文件里的位置。
./data/01BKGV7JC0RY8A6MACW02A2PJD
./data/01BKGV7JC0RY8A6MACW02A2PJD/meta.json
./data/01BKGV7JC0RY8A6MACW02A2PJD/index
./data/01BKGV7JC0RY8A6MACW02A2PJD/chunks
./data/01BKGV7JC0RY8A6MACW02A2PJD/chunks/000001
./data/01BKGV7JC0RY8A6MACW02A2PJD/tombstones
存储配置
对于本地存储,prometheus 提供了一些配置项,主要包括:

–storage.tsdb.path: 存储数据的目录,默认为 data/,如果要挂外部存储,可以指定该目录
–storage.tsdb.retention.time: 数据过期清理时间,默认保存 15 天
–storage.tsdb.retention.size: 实验性质,声明数据块的最大值,不包括 wal 文件,如 512MB
–storage.tsdb.retention: 已被废弃,改为使用 storage.tsdb.retention.time

Prometheus 将所有当前使用的块保留在内存中。此外,它将最新使用的块保留在内存中,最大内存可以通过 storage.local.memory-chunks 标志配置。
监测当前使用的内存量:

prometheus_local_storage_memory_chunks
process_resident_memory_bytes

监测当前使用的存储指标:

prometheus_local_storage_memory_series: 时间序列持有的内存当前块数量
prometheus_local_storage_memory_chunks: 在内存中持久块的当前数量
prometheus_local_storage_chunks_to_persist: 当前仍然需要持久化到磁盘的的内存块数量
prometheus_local_storage_persistence_urgency_score: 紧急程度分数

prometheus 2.0 的存储升级
prometheus 2.0 于 2017-11-08 发布,主要是存储引擎进行了优化。
性能的整体提高:

与 Prometheus 1.8 相比,CPU 使用率降低了 20% – 40%
与 Prometheus 1.8 相比,磁盘空间使用率降低了 33% – 50%
没有太多查询,平均负载的磁盘 I/O<1%

在 Kubernetes 集群这样的动态环境中,prometheus 的数据平面通常看起来是这种样式

垂直维度表示所有存储的序列
水平维度表示样本传播的时间

如:
requests_total{path=”/status”, method=”GET”, instance=”10.0.0.1:80″}
requests_total{path=”/status”, method=”POST”, instance=”10.0.0.3:80″}
requests_total{path=”/”, method=”GET”, instance=”10.0.0.2:80″}

Prometheus 定期为所有系列收集新数据点,这意味着它必须在时间轴的右端执行垂直写入。但是,在查询时,我们可能希望访问平面上任意区域的矩形(各种 label 条件)
因此为了能够在大量数据中有效地查找查询序列,我们需要一个索引。
在 Prometheus 1.x 存储层可以很好地处理垂直写入模式,但是随着规模增大,索引或出现一些问题,因此在 2.0 版本中重新设计了存储引擎和索引,主要改造是:
样本压缩
现有存储层的样本压缩功能在 Prometheus 的早期版本中发挥了重要作用。单个原始数据点占用 16 个字节的存储空间。但当普罗米修斯每秒收集数十万个数据点时,可以快速填满硬盘。
但,同一系列中的样本往往非常相似,我们可以利用这一类样品(同样 label)进行有效的压缩。批量压缩一系列的许多样本的块,在内存中,将每个数据点压缩到平均 1.37 字节的存储。
这种压缩方案运行良好,也保留在新版本 2 存储层的设计中。具体压缩算法可以参考:Facebook 的“Gorilla”论文中
时间分片
我们将新的存储层划分为块(block),每个块在一段时间内保存所有序列。每个块充当独立数据库。

这样每次查询,仅检查所请求的时间范围内的块子集,查询执行时间自然会减少。
这种布局也使删除旧数据变得非常容易(这在 1.x 的存储设计中是一个很耗时的操作)。但在 2.x 中,一旦块的时间范围完全落后于配置的保留边界,它就可以完全丢弃。

索引
一般 prometheus 的查询是把 metric+label 做关键字的,而且是很宽泛,完全用户自定义的字符,因此没办法使用常规的 sql 数据库,prometheus 的存储层使用了全文检索中的倒排索引概念,将每个时间序列视为一个小文档。而 metric 和 label 对应的是文档中的单词。
例如,requests_total{path=”/status”, method=”GET”, instance=”10.0.0.1:80″}是包含以下单词的文档:

__name__=”requests_total”
path=”/status”
method=”GET”
instance=”10.0.0.1:80″

基准测试
cpu、内存、查询效率都比 1.x 版本得到了大幅度的提升
具体测试结果参考:https://dzone.com/articles/pr…
故障恢复
如果您怀疑数据库中的损坏引起的问题,则可以通过使用 storage.local.dirtyflag 配置,来启动服务器来强制执行崩溃恢复。
如果没有帮助,或者如果您只想删除现有的数据库,可以通过删除存储目录的内容轻松地启动:

1. 停止服务:stop prometheus.
2. 删除数据目录:rm -r <storage path>/*
3. 启动服务:start prometheus

远程存储
Prometheus 默认是自己带有存储的,保存的时间为 15 天。但本地存储也意味着 Prometheus 无法持久化数据,无法存储大量历史数据,同时也无法灵活扩展。为了保证 Prometheus 的简单性,Prometheus 并没有从自身集群的维度来解决这些问题,而是定义了两种接口,remote_write/remote_read,将数据抛出去,你自己处理。
Prometheus 的 remote_storage 其实是一个 adapter,至于在 adapter 的另一端是什么类型的时序数据库它根本不关心,如果你愿意,你也可以编写自己的 adpater。
如:存储的方式为:Prometheus —- 发送数据—- > remote_storage_adapter —- 存储数据 —-> influxdb。
prometheus 通过下面两种方式来实现与其他的远端存储系统对接:

Prometheus 按照标准的格式将 metrics 写到远端存储
Prometheus 按照标准格式从远端的 url 来读取 metrics

远程读
在远程读的流程当中,当用户发起查询请求后,Promthues 将向 remote_read 中配置的 URL 发起查询请求(matchers,ranges),Adaptor 根据请求条件从第三方存储服务中获取响应的数据。同时将数据转换为 Promthues 的原始样本数据返回给 Prometheus Server。
当获取到样本数据后,Promthues 在本地使用 PromQL 对样本数据进行二次处理。
远程写
用户可以在 Promtheus 配置文件中指定 Remote Write(远程写)的 URL 地址,一旦设置了该配置项,Prometheus 将样本数据通过 HTTP 的形式发送给适配器(Adaptor)。而用户则可以在适配器中对接外部任意的服务。外部服务可以是真正的存储系统,公有云的存储服务,也可以是消息队列等任意形式。
配置
配置非常简单,只需要将对应的地址配置下就行
remote_write:
– url: “http://localhost:9201/write”

remote_read:
– url: “http://localhost:9201/read”
社区支持
现在社区已经实现了以下的远程存储方案

AppOptics: write
Chronix: write
Cortex: read and write
CrateDB: read and write
Elasticsearch: write
Gnocchi: write
Graphite: write
InfluxDB: read and write
OpenTSDB: write
PostgreSQL/TimescaleDB: read and write
SignalFx: write

可以使用读写完整的 InfluxDB,我们使用了多 prometheus server 同时远程读 + 写,验证了速度还是可以的。并且 InfluxDB 生态完整,自带了很多管理工具。
容量规划
在一般情况下,Prometheus 中存储的每一个样本大概占用 1 - 2 字节大小。如果需要对 Prometheus Server 的本地磁盘空间做容量规划时,可以通过以下公式计算:
磁盘大小 = 保留时间 * 每秒获取样本数 * 样本大小
保留时间 (retention_time_seconds) 和样本大小 (bytes_per_sample) 不变的情况下,如果想减少本地磁盘的容量需求,只能通过减少每秒获取样本数 (ingested_samples_per_second) 的方式。
因此有两种手段,一是减少时间序列的数量,二是增加采集样本的时间间隔。
考虑到 Prometheus 会对时间序列进行压缩,因此减少时间序列的数量效果更明显。
其他
远程读写解决了 Promtheus 的数据持久化问题。使其可以进行弹性扩展。另外还支持联邦集群模式,用于解决横向扩展、网络分区的问题(如地域 A +B+ C 的监控数据,统一汇总到 D),联邦集群的配置将在后面的 Promthues 高可用文章中详细说明。
附:kubecon2018 上讲 Prometheus 2.0 的帅哥

还有一本专门讲 Prometheus 的书:Prometheus: Up & Running(600 多页 …)
国内没找到卖的,找到了一本英文 pdf 的,还在翻译理解中,有新的内容会继续同步在这个系列博客

。。。又找到一本:https://www.prometheusbook.com/

参考资料:

https://prometheus.io/docs/pr…
https://coreos.com/blog/prome…
https://dzone.com/articles/pr…
https://www.linuxidc.com/Linu…
http://ylzheng.com/2018/03/06…
https://www.cnblogs.com/vovli…
https://files-cdn.cnblogs.com…
https://www.bookstack.cn/read…

本文为容器监控实践系列文章,完整内容见:container-monitor-book

退出移动版