关于java:最牛逼的集群监控系统它始终位列第一

46次阅读

共计 9483 个字符,预计需要花费 24 分钟才能阅读完成。

在本文中,咱们将看到 Prometheus 监控技术栈的局限性,以及为什么挪动到基于 Thanos 的技术栈能够进步指标留存率并升高总体基础设施老本。

用于此演示的内容能够在上面链接中获取,并提交到他们各自的许可证。

  • https://github.com/particulei…
  • https://github.com/particulei…

1.Kubernetes 普罗米修斯技术栈

在为咱们的客户部署 Kubernetes 基础设施时,在每个集群上部署监控技术栈是规范做法。这个堆栈通常由几个组件组成:

  • Prometheus: 收集度量规范
  • 告警管理器: 依据指标查问向各种提供者发送警报
  • Grafana: 可视化奢华仪表板

简化架构如下:

注意事项

这种架构有一些注意事项,当你想从其中获取指标的集群数量减少时,它的伸缩性以及可扩展性不太好。

多个 Grafana

在这种设置中,每个集群都有本人的 Grafana 和本人的一组仪表板,保护起来很麻烦。

存储指标数据是低廉的

Prometheus 将指标数据存储在磁盘上,你必须在存储空间和指标保留工夫之间做出抉择。如果你想长时间存储数据并在云提供商上运行,那么如果存储 TB 的数据,块存储的老本可能会很高。

同样,在生产环境中,Prometheus 常常应用复制或分片或两者同时运行,这可能会使存储需要减少两倍甚至四倍。

解决方案

多个 Grafana 数据源

能够在内部网络上公开 Prometheus 的端点,并将它们作为数据源增加到单个 Grafana 中。你只须要在 Prometheus 内部端点上应用 TLS 或 TLS 和根本认证来实现安全性。此解决方案的毛病是不能基于不同的数据源进行计算。

Prometheus 联邦

Prometheus 联邦容许从 Prometheus 中抓取 Prometheus,当你不抓取很多指标数据时,这个解决方案能够很好地工作。在规模上,如果你所有的 Prometheus 指标的抓取持续时间都比抓取距离长,可能会遇到一些重大的问题。

Prometheus 近程写

尽管近程写入是一种解决方案(也由 Thanos receiver 实现),但咱们将不在本文中探讨“推送指标”局部。倡议在不信赖多个集群或租户的状况下(例如在将 Prometheus 构建为服务提供时),将指标作为最初的伎俩。无论如何,这可能是当前文章的主题,但咱们将在这里集中探讨抓取。

2.Thanos

Thanos 是一个“开源的,高可用的 Prometheus 零碎,具备长期存储能力”。很多出名公司都在应用 Thanos,也是 CNCF 孵化我的项目的一部分。

Thanos 的一个次要特点就是容许“有限”存储空间。通过应用对象存储(比方 S3),简直每个云提供商都提供对象存储。如果在前提环境下运行,对象存储能够通过 rook 或 minio 这样的解决方案提供。

它是如何工作的?

Thanos 和 Prometheus 并肩作战,从 Prometheus 开始降级到 Thanos 是很常见的。

Thanos 被分成几个组件,每个组件都有一个指标(每个服务都应该这样:)),组件之间通过 gRPC 进行通信。

Thanos Sidecar

Thanos 和 Prometheus 一起运行(有一个边车),每 2 小时向一个对象存储库输入 Prometheus 指标。这使得 Prometheus 简直是无状态的。

Prometheus 依然在内存中保留着 2 个小时的度量值,所以在产生宕机的状况下,你可能依然会失落 2 个小时的度量值(这个问题应该由你的 Prometheus 设置来解决,应用 HA/ 分片,而不是 Thanos)。

Thanos sidecar 与 Prometheus 运营者和 Kube Prometheus 栈一起,能够轻松部署。这个组件充当 Thanos 查问的存储。

Thanos 存储

Thanos 存储充当一个网关,将查问转换为近程对象存储。它还能够在本地存储器上缓存一些信息。基本上,这个组件容许你查问对象存储以获取指标。这个组件充当 Thanos 查问的存储。

Thanos Compactor

Thanos Compactor 是一个单例(它是不可扩大的),它负责压缩和升高存储在对象存储中的指标。下采样是随着工夫的推移对指标力度的宽松。例如,你可能想将你的指标放弃 2 年或 3 年,但你不须要像昨天的指标那么少数据点。这就是压缩器的作用,它能够在对象存储上节俭资节,从而节省成本。

Thanos Query

Thanos 查问是 Thanos 的次要组件,它是向其发送 PromQL 查问的中心点。Thanos 查问裸露了一个与 Prometheus 兼容的端点。而后它将查问后果分派给所有的“stores”。记住,Store 可能是任何其余提供指标的 Thanos 组件。

Thanos 查问能够发送查问到另一个 Thanos 查问(他们能够重叠)。

  • Thanos Store
  • Thanos Sidecar
  • Thanos Query

还负责对来自不同 Store 或 Prometheus 的雷同指标进行反复数据删除。例如,如果你有一个度量值在 Prometheus 中,同时也在对象存储中,Thanos Query 能够对该指标值进行反复数据删除。在 Prometheus HA 设置的状况下,反复数据删除也基于 Prometheus 正本和分片。

Thanos Query Frontend

正如它的名字所暗示的,Thanos 查问前端是 Thanos 查问的前端,它的指标是将大型查问拆分为多个较小的查问,并缓存查问后果(在内存或 memcached 中)。

还有其余组件,比方在近程写的状况下接管 Thanos,但这依然不是本文的主题。

3. 多集群架构

有多种办法能够将这些组件部署到多个 Kubernetes 集群中,依据用例的不同,有些办法比其余办法更好,在这里咱们不能给出具体的介绍。

咱们的例子是在 AWS 上运行,应用 tEKS 部署了 2 个集群,咱们的 all in one 解决方案将生产就绪的 EKS 集群部署在 AWS 上:

  • 一个观察者集群
  • 一个察看集群

咱们的部署应用了官网的 kube-prometheus-stack 和 bitnami thanos 图表。

一切都是在咱们的 terraform-kubernetes-addons 存储库中策动的。

Thanos demo 文件夹中的目录构造如下:

├──  env_tags.yaml  
├──  eu-west-1  
│ ├──  clusters  
│ │ └──  observer  
│ │ ├──  eks  
│ │ │ ├──  kubeconfig  
│ │ │ └──  terragrunt.hcl  
│ │ ├──  eks-addons  
│ │ │ └──  terragrunt.hcl  
│ │ └──  vpc  
│ │ └──  terragrunt.hcl  
│ └──  region_values.yaml  
└──  eu-west-3  
   ├──  clusters  
   │ └──  observee  
   │ ├──  cluster_values.yaml  
   │ ├──  eks  
   │ │ ├──  kubeconfig  
   │ │ └──  terragrunt.hcl  
   │ ├──  eks-addons  
   │ │ └──  terragrunt.hcl  
   │ └──  vpc  
   │ └──  terragrunt.hcl  
   └──  region_values.yaml

这容许 DRY(Don ‘t Repeat Yourself)基础设施,并能够轻松地扩大 AWS 帐户、区域和集群的数量。

观察者集群

观察者集群是咱们的主集群,咱们将从它查问其余集群:

Prometheus 正在运行:

  • Grafana 启用
  • Thanos 边车上传到特定的桶
kube-prometheus-stack = {  
  enabled = true  
  allowed_cidrs = dependency.vpc.outputs.private_subnets_cidr_blocks  
  thanos_sidecar_enabled = true  
  thanos_bucket_force_destroy = true  
  extra_values = <<-EXTRA_VALUES  
    grafana:  
      deploymentStrategy:  
        type: Recreate  
      ingress:  
        enabled: true  
        annotations:  
          kubernetes.io/ingress.class: nginx  
          cert-manager.io/cluster-issuer: "letsencrypt"  
        hosts:  
          - grafana.${local.default_domain_suffix}  
        tls:  
          - secretName: grafana.${local.default_domain_suffix}  
            hosts:  
              - grafana.${local.default_domain_suffix}  
      persistence:  
        enabled: true  
        storageClassName: ebs-sc  
        accessModes:  
          - ReadWriteOnce  
        size: 1Gi  
    prometheus:  
      prometheusSpec:  
        replicas: 1  
        retention: 2d  
        retentionSize: "10GB"  
        ruleSelectorNilUsesHelmValues: false  
        serviceMonitorSelectorNilUsesHelmValues: false  
        podMonitorSelectorNilUsesHelmValues: false  
        storageSpec:  
          volumeClaimTemplate:  
            spec:  
              storageClassName: ebs-sc  
              accessModes: ["ReadWriteOnce"]  
              resources:  
                requests:  
                  storage: 10Gi  
    EXTRA_VALUES

为观察者集群生成一个 CA 证书:

  • 这个 CA 将被进入 sidecar 的被察看集群所信赖
  • 为 Thanos querier 组件生成 TLS 证书,这些组件将查问被察看集群

Thanos 组件部署:

  • Thanos 组件全副部署实现
  • 查问前端,作为 Grafana 的数据源端点
  • 存储网关用于查问察看零碎
  • Query 将对存储网关和其余查询器执行查问

部署的额定 Thanos 组件:

  • 配置了 TLS 的 Thanos 查询器对每个被察看集群进行查问
thanos-tls-querier = {  
  "observee" = {  
    enabled = true  
    default_global_requests = true  
    default_global_limits = false  
    stores = ["thanos-sidecar.${local.default_domain_suffix}:443"  
    ]  
  }  
}  

thanos-storegateway = {  
  "observee" = {  
    enabled = true  
    default_global_requests = true  
    default_global_limits = false  
    bucket = "thanos-store-pio-thanos-observee"  
    region = "eu-west-3"  
  }

被观测集群

被观测集群是 Kubernetes 集群,具备最小的 Prometheus/Thanos 装置,将被观测集群查问。

Prometheus operator 正在运行:

  • Thanos 这边就是上传给观察者特定的桶
  • Thanos 边车与 TLS 客户端认证的入口对象一起公布,并信赖观察者集群 CA
kube-prometheus-stack = {  
  enabled = true  
  allowed_cidrs = dependency.vpc.outputs.private_subnets_cidr_blocks  
  thanos_sidecar_enabled = true  
  thanos_bucket_force_destroy = true  
  extra_values = <<-EXTRA_VALUES  
    grafana:  
      enabled: false  
    prometheus:  
      thanosIngress:  
        enabled: true  
        ingressClassName: nginx  
        annotations:  
          cert-manager.io/cluster-issuer: "letsencrypt"  
          nginx.ingress.kubernetes.io/ssl-redirect: "true"  
          nginx.ingress.kubernetes.io/backend-protocol: "GRPC"  
          nginx.ingress.kubernetes.io/auth-tls-verify-client: "on"  
          nginx.ingress.kubernetes.io/auth-tls-secret: "monitoring/thanos-ca"  
        hosts:  
        - thanos-sidecar.${local.default_domain_suffix}  
        paths:  
        - /  
        tls:  
        - secretName: thanos-sidecar.${local.default_domain_suffix}  
          hosts:  
          - thanos-sidecar.${local.default_domain_suffix}  
      prometheusSpec:  
        replicas: 1  
        retention: 2d  
        retentionSize: "6GB"  
        ruleSelectorNilUsesHelmValues: false  
        serviceMonitorSelectorNilUsesHelmValues: false  
        podMonitorSelectorNilUsesHelmValues: false  
        storageSpec:  
          volumeClaimTemplate:  
            spec:  
              storageClassName: ebs-sc  
              accessModes: ["ReadWriteOnce"]  
              resources:  
                requests:  
                  storage: 10Gi  
    EXTRA_VALUES

Thanos 组件部署:

  • Thanos 压缩器来治理这个特定集群的下采样
thanos = {  
  enabled = true  
  bucket_force_destroy = true  
  trusted_ca_content = dependency.thanos-ca.outputs.thanos_ca  
  extra_values = <<-EXTRA_VALUES  
    compactor:  
      retentionResolution5m: 90d  
    query:  
      enabled: false  
    queryFrontend:  
      enabled: false  
    storegateway:  
      enabled: false  
    EXTRA_VALUES  
}

4. 再深刻一点

让咱们检查一下集群上正在运行什么。

对于观察员,咱们有:

kubectl -n monitoring get pods  
NAME READY STATUS RESTARTS AGE  
alertmanager-kube-prometheus-stack-alertmanager-0           2/2     Running 0          120m  
kube-prometheus-stack-grafana-c8768466b-rd8wm 2/2     Running 0          120m  
kube-prometheus-stack-kube-state-metrics-5cf575d8f8-x59rd 1/1     Running 0          120m  
kube-prometheus-stack-operator-6856b9bb58-hdrb2 1/1     Running 0          119m  
kube-prometheus-stack-prometheus-node-exporter-8hvmv 1/1     Running 0          117m  
kube-prometheus-stack-prometheus-node-exporter-cwlfd 1/1     Running 0          120m  
kube-prometheus-stack-prometheus-node-exporter-rsss5 1/1     Running 0          120m  
kube-prometheus-stack-prometheus-node-exporter-rzgr9 1/1     Running 0          120m  
prometheus-kube-prometheus-stack-prometheus-0               3/3     Running 1          120m  
thanos-compactor-74784bd59d-vmvps 1/1     Running 0          119m  
thanos-query-7c74db546c-d7bp8 1/1     Running 0          12m  
thanos-query-7c74db546c-ndnx2 1/1     Running 0          12m  
thanos-query-frontend-5cbcb65b57-5sx8z 1/1     Running 0          119m  
thanos-query-frontend-5cbcb65b57-qjhxg 1/1     Running 0          119m  
thanos-storegateway-0                                       1/1     Running 0          119m  
thanos-storegateway-1                                       1/1     Running 0          118m  
thanos-storegateway-observee-storegateway-0                 1/1     Running 0          12m  
thanos-storegateway-observee-storegateway-1                 1/1     Running 0          11m  
thanos-tls-querier-observee-query-dfb9f79f9-4str8 1/1     Running 0          29m  
thanos-tls-querier-observee-query-dfb9f79f9-xsq24 1/1     Running 0          29m  

kubectl -n monitoring get ingress  
NAME CLASS HOSTS ADDRESS PORTS AGE  
kube-prometheus-stack-grafana <none> grafana.thanos.teks-tg.clusterfrak-dynamics.io k8s-ingressn-ingressn-afa0a48374-f507283b6cd101c5.elb.eu-west-1.amazonaws.com 80, 443   123m

被观察者:

kubectl -n monitoring get pods  
NAME READY STATUS RESTARTS AGE  
alertmanager-kube-prometheus-stack-alertmanager-0           2/2     Running 0          39m  
kube-prometheus-stack-kube-state-metrics-5cf575d8f8-ct292 1/1     Running 0          39m  
kube-prometheus-stack-operator-6856b9bb58-4cngc 1/1     Running 0          39m  
kube-prometheus-stack-prometheus-node-exporter-bs4wp 1/1     Running 0          39m  
kube-prometheus-stack-prometheus-node-exporter-c57ss 1/1     Running 0          39m  
kube-prometheus-stack-prometheus-node-exporter-cp5ch 1/1     Running 0          39m  
kube-prometheus-stack-prometheus-node-exporter-tnqvq 1/1     Running 0          39m  
kube-prometheus-stack-prometheus-node-exporter-z2p49 1/1     Running 0          39m  
kube-prometheus-stack-prometheus-node-exporter-zzqp7 1/1     Running 0          39m  
prometheus-kube-prometheus-stack-prometheus-0               3/3     Running 1          39m  
thanos-compactor-7576dcbcfc-6pd4v 1/1     Running 0          38m  

kubectl -n monitoring get ingress  
NAME CLASS HOSTS ADDRESS PORTS AGE  
kube-prometheus-stack-thanos-gateway nginx thanos-sidecar.thanos.teks-tg.clusterfrak-dynamics.io k8s-ingressn-ingressn-95903f6102-d2ce9013ac068b9e.elb.eu-west-3.amazonaws.com 80, 443   40m

咱们的 TLS 查询器应该可能查问被观测集群的度量规范。

让咱们来看看它们的行为:

k -n monitoring logs -f thanos-tls-querier-observee-query-687dd88ff5-nzpdh  

level=info ts=2021-02-23T15:37:35.692346206Z caller=storeset.go:387 component=storeset msg="adding new storeAPI to query storeset" address=thanos-sidecar.thanos.teks-tg.clusterfrak-dynamics.io:443 extLset="{cluster=\"pio-thanos-observee\", prometheus=\"monitoring/kube-prometheus-stack-prometheus\", prometheus_replica=\"prometheus-kube-prometheus-stack-prometheus-0\"}"

所以这个查询器 pods 能够查问我的其余集群,如果咱们查看 Web,咱们能够看到存储:

kubectl -n monitoring port-forward thanos-tls-querier-observee-query-687dd88ff5-nzpdh 10902

太棒了,然而我只有一个存储,还记得咱们说过查询器能够重叠在一起吗?在咱们的观察者集群中,咱们有规范的 http 查询器,它能够查问架构图中的其余组件。

kubectl -n monitoring port-forward thanos-query-7c74db546c-d7bp8 10902

这里咱们能够看到所有的存储曾经被增加到咱们的核心查询器:

  • 观察者把本地 Thanos 汇集
  • 咱们的存储网关(一个用于近程观测者集群,一个用于本地观测者集群)
  • 本地 TLS 查询器,它能够查问被察看的 sidecar

5. 在 Grafana 可视化

最初,咱们能够返回 Grafana,看看默认的 Kubernetes 仪表板是如何与多集群兼容的。

6. 总结

Thanos 是一个非常复杂的零碎,有很多挪动部件,咱们没有深入研究具体的自定义配置,因为它会破费太多的工夫。

咱们在 tEKS 存储库中提供了一个相当残缺的 AWS 实现,它形象了很多复杂性(次要是 mTLS 局部),并容许进行很多定制。你也能够应用 terraform-kubernetes-addons 模块作为独立的组件。咱们打算在将来反对其余云提供商。不要犹豫,通过 Github 上的任何一个我的项目的问题分割咱们。

依据你的基础设施和需要,有许多可能适宜你的 Thanos 实现。

如果你想深入研究 Thanos,能够查看他们的官网 kube-thanos 存储库,以及他们对于跨集群通信的倡议。

正文完
 0