关于阿里云:Koordinator-v11发布负载感知与干扰检测采集

37次阅读

共计 17910 个字符,预计需要花费 45 分钟才能阅读完成。

作者:Koordinator 社区

背景

Koordinator 旨在为用户提供残缺的混部工作负载编排、混部资源调度、混部资源隔离及性能调优解决方案,帮忙用户进步提早敏感服务的运行性能,开掘闲暇节点资源并调配给真正有须要的计算工作,从而进步全局的资源利用效率。

从 2022 年 4 月公布以来,Koordinator 迄今一共迭代公布了 9 个版本。我的项目经验的大半年倒退过程中,社区吸纳了包含阿里巴巴、小米、小红书、爱奇艺、360、有赞等在内的大量优良工程师,奉献了泛滥的想法、代码和场景,一起推动 Koordinator 我的项目的成熟。

明天,很快乐地发表 Koordinator v1.1 正式公布,它蕴含了负载感知调度 / 重调度、cgroup v2 反对、烦扰检测指标采集,以及其余一系列优化点。接下来咱们就针对这些新增个性做深刻解读与阐明。

版本个性深刻解读

负载感知调度

反对按工作负载类型统计和平衡负载水位

Koordinator v1.0 及之前的版本,提供了负载感知调度提供根本的利用率阈值过滤爱护高负载水位的节点持续好转影响工作负载的运行时品质,以及通过预估机制解决解决冷节点过载的状况。已有的负载感知调度能解决很多常见场景的问题。但负载感知调度作为一种优化伎俩,还有比拟多的场景是须要欠缺的。

目前的负载感知调度次要解决了集群内整机维度的负载平衡成果,但有可能呈现一些非凡的状况:节点部署了不少离线 Pod 运行,拉高了整机的利用率,但在线利用工作负载的整体利用率偏低。这个时候如果有新的在线 Pod,且整个集群内的资源比拟缓和时,会有如下的问题:

  1. 有可能因为整机利用率超过整机平安阈值导致无奈调度到这个节点上的;
  2. 还可能呈现一个节点的利用率尽管绝对比拟低,但下面跑的全是在线应用率,从在线利用角度看,利用率曾经偏高了,但依照以后的调度策略,还会持续调度这个 Pod 上来,导致该节点沉积了大量的在线利用,整体的运行成果并不好。

在 Koordinator v1.1 中,koord-scheduler 反对感知工作负载类型,辨别不同的水位和策略进行调度。

在 Filter 阶段:

新增 threshold 配置 prodUsageThresholds,示意在线利用的平安阈值,默认为空。如果以后调度的 Pod 是 Prod 类型,koord-scheduler 会从以后节点的 NodeMetric 中统计所有在线利用的利用率之和,如果超过了 prodUsageThresholds 就过滤掉该节点;如果是离线 Pod,或者没有配置 prodUsageThresholds,放弃原有的逻辑,按整机利用率解决。

在 Score 阶段:

新增开关 scoreAccordingProdUsage 示意是否按 Prod 类型的利用率打分平衡。默认不启用。当开启后,且以后 Pod 是 Prod 类型的话,koord-scheduler 在预估算法中只解决 Prod 类型的 Pod,并对 NodeMetrics 中记录的其余的未应用预估机制解决的在线利用的 Pod 的以后利用率值进行求和,求和后的值参加最终的打分。如果没有开启 scoreAccordingProdUsage,或者是离线 Pod,放弃原有逻辑,按整机利用率解决。

反对按百分位数利用率平衡

Koordinator v1.0 及以前的版本都是依照 koordlet 上报的均匀利用率数据进行过滤和打分。但平均值暗藏了比拟多的信息,因而在 Koordinator v1.1 中 koordlet 新增了依据百分位数统计的利用率聚合数据。调度器侧也跟着做了相应的适配。

更改调度器的 LoadAware 插件的配置,aggregated 示意依照百分位数聚合数据进行打分和过滤。

aggregated.usageThresholds 示意过滤时的水位阈值;aggregated.usageAggregationType 示意过滤阶段要应用的百分位数类型,反对 avg,p99,p95,p90 和 p50;aggregated.usageAggregatedDuration 示意过滤阶段冀望应用的聚合周期,如果不配置,调度器将应用 NodeMetrics 中上报的最大周期的数据;aggregated.scoreAggregationType 示意在打分阶段冀望应用的百分位数类型;aggregated.scoreAggregatedDuration 示意打分阶段冀望应用的聚合周期,如果不配置,调度器将应用 NodeMetrics 中上报的最大周期的数据。

在 Filter 阶段:

如果配置了 aggregated.usageThresholds 以及对应的聚合类型,调度器将按该百分位数统计值进行过滤;

在 Score 阶段:

如果配置了 aggregated.scoreAggregationType,调度器将会按该百分位数统计值打分;目前临时不反对 Prod Pod 应用百分位数过滤。

应用示例

  1. 更改 koord-scheduler 配置,启用按 Prod 统计利用率并在过滤和打分阶段失效,整机按百分位数统计利用率并在过滤和打分阶段失效。
apiVersion: v1
kind: ConfigMap
metadata:
  name: koord-scheduler-config
  ...
data:
  koord-scheduler-config: |
    apiVersion: kubescheduler.config.k8s.io/v1beta2
    kind: KubeSchedulerConfiguration
    profiles:
      - schedulerName: koord-scheduler
        plugins:
          # enable the LoadAwareScheduling plugin
          filter:
            enabled:
              - name: LoadAwareScheduling
              ...
          score:
            enabled:
              - name: LoadAwareScheduling
                weight: 1
              ...
          reserve:
            enabled:
              - name: LoadAwareScheduling
          ...
        pluginConfig:
        # configure the thresholds and weights for the plugin
        - name: LoadAwareScheduling
          args:
            apiVersion: kubescheduler.config.k8s.io/v1beta2
            kind: LoadAwareSchedulingArgs
            # whether to filter nodes where koordlet fails to update NodeMetric
            filterExpiredNodeMetrics: true
            # the expiration threshold seconds when using NodeMetric
            nodeMetricExpirationSeconds: 300
            # weights of resources
            resourceWeights:
              cpu: 1
              memory: 1
            # thresholds (%) of resource utilization
            usageThresholds:
              cpu: 75
              memory: 85
            # thresholds (%) of resource utilization of Prod Pods
            prodUsageThresholds:
              cpu: 55
              memory: 65
            # enable score according Prod usage
            scoreAccordingProdUsage: true
            # the factor (%) for estimating resource usage
            estimatedScalingFactors:
              cpu: 80
              memory: 70
            # enable resource utilization filtering and scoring based on percentile statistics
            aggregated:
              usageThresholds:
                cpu: 65
                memory: 75
              usageAggregationType: "p99"
              scoreAggregationType: "p99"
  1. 部署一个压测 Pod
apiVersion: apps/v1
kind: Deployment
metadata:
  name: stress-demo
  namespace: default
  labels:
    app: stress-demo
spec:
  replicas: 1
  selector:
    matchLabels:
      app: stress-demo
  template:
    metadata:
      name: stress-demo
      labels:
        app: stress-demo
    spec:
      containers:
        - args:
            - '--vm'
            - '2'
            - '--vm-bytes'
            - '1600M'
            - '-c'
            - '2'
            - '--vm-hang'
            - '2'
          command:
            - stress
          image: polinux/stress
          imagePullPolicy: Always
          name: stress
          resources:
            limits:
              cpu: '2'
              memory: 4Gi
            requests:
              cpu: '2'
              memory: 4Gi
      restartPolicy: Always
      schedulerName: koord-scheduler # use the koord-scheduler
$ kubectl create -f stress-demo.yaml
deployment.apps/stress-demo created

期待压测 Pod 变成 Running 状态

$ kubectl get pod -o wide
NAME                           READY   STATUS    RESTARTS   AGE   IP           NODE                    NOMINATED NODE   READINESS GATES
stress-demo-7fdd89cc6b-gcnzn   1/1     Running   0          82s   10.0.3.114   cn-beijing.10.0.3.112   <none>           <none>

Pod 调度到了 cn-beijing.10.0.3.112

  1. 查看每个 node 的负载。
$ kubectl top node
NAME                    CPU(cores)   CPU%   MEMORY(bytes)   MEMORY%
cn-beijing.10.0.3.110   92m          2%     1158Mi          9%
cn-beijing.10.0.3.111   77m          1%     1162Mi          9%
cn-beijing.10.0.3.112   2105m        53%    3594Mi          28%

依照输入结果显示,节点 cn-beijing.10.0.3.111 负载最低,节点 cn-beijing.10.0.3.112 的负载最高。

  1. 部署一个在线 Pod
apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx-with-loadaware
  labels:
    app: nginx
spec:
  replicas: 6
  selector:
    matchLabels:
      app: nginx
  template:
    metadata:
      name: nginx
      labels:
        app: nginx
    spec:
      # Use koord-prod to indicate that the Pod is Prod
      priorityClassName: "koord-prod"
      schedulerName: koord-scheduler # use the koord-scheduler
      containers:
      - name: nginx
        image: nginx
        resources:
          limits:
            cpu: 500m
          requests:
            cpu: 500m
$ kubectl create -f nginx-with-loadaware.yaml
deployment/nginx-with-loadawre created
  1. 查看调度后果
$ kubectl get pods | grep nginx
nginx-with-loadaware-5646666d56-224jp   1/1     Running   0          18s   10.0.3.118   cn-beijing.10.0.3.110   <none>           <none>
nginx-with-loadaware-5646666d56-7glt9   1/1     Running   0          18s   10.0.3.115   cn-beijing.10.0.3.110   <none>           <none>
nginx-with-loadaware-5646666d56-kcdvr   1/1     Running   0          18s   10.0.3.119   cn-beijing.10.0.3.110   <none>           <none>
nginx-with-loadaware-5646666d56-qzw4j   1/1     Running   0          18s   10.0.3.113   cn-beijing.10.0.3.111   <none>           <none>
nginx-with-loadaware-5646666d56-sbgv9   1/1     Running   0          18s   10.0.3.120   cn-beijing.10.0.3.111   <none>           <none>
nginx-with-loadaware-5646666d56-z79dn   1/1     Running   0          18s   10.0.3.116   cn-beijing.10.0.3.111   <none>           <none>

从上述输入可知,因为集群开启了负载感知调度性能,能感知节点负载,通过使用调度策略,此时 Pod 被优先调度到除 cn-beijing.10.0.3.112 以外的节点上。

负载感知重调度

Koordinator 在过来的几个版本中,继续的演进重调度器,先后了开源残缺的框架,增强了安全性,防止因适度驱赶 Pod 影响在线利用的稳定性。这也影响了重调度性能的停顿,过来 Koordinator 临时没有太多力量建设重调度能力。这一状况将会失去扭转。

Koordinator v1.1 中咱们新增了负载感知重调度性能。新的插件称为 LowNodeLoad,该插件配合着调度器的负载感知调度能力,能够造成一个闭环,调度器的负载感知调度在调度时刻决策抉择最优节点,但随着工夫和集群环境以及工作负载面对的流量 / 申请的变动时,负载感知重调度能够染指进来,帮忙优化负载水位超过平安阈值的节点。LowNodeLoad 与 K8s descheduler 的插件 LowNodeUtilization 不同的是,LowNodeLoad 是依据节点实在利用率的状况决策重调度,而 LowNodeUtilization 是依据资源分配率决策重调度。

基本原理

LowNodeLoad 插件有两个最重要的参数:

  • highThresholds 示意负载水位的指标平安阈值,超过该阈值的节点上的 Pod 将参加重调度;
  • lowThresholds 示意负载水位的闲暇平安水位。低于该阈值的节点上的 Pod 不会被重调度。

以下图为例,lowThresholds 为 45%,highThresholds 为 70%,咱们能够把节点归为三类:

  1. 闲暇节点(Idle Node)。资源利用率低于 45% 的节点;
  2. 失常节点(Normal Node)。资源利用率高于 45% 但低于 70% 的节点,这个负载水位区间是咱们冀望的正当的区间范畴
  3. 热点节点(Hotspot Node)。如果节点资源利用率高于 70%,这个节点就会被断定为不平安了,属于热点节点,应该驱赶一部分 Pod,升高负载水位,使其不超过 70%。

在辨认出哪些节点是热点后,descheduler 将会执行迁徙驱赶操作,驱赶热点节点中的局部 Pod 到闲暇节点上。

如果一个集群中闲暇节点的总数并不是很多时会终止重调度。这在大型集群中可能会有所帮忙,在大型集群中,一些节点可能会常常或短时间应用有余。默认状况下,numberOfNodes 设置为零。能够通过设置参数 numberOfNodes 来开启该能力。

在迁徙前,descheduler 会计算出理论闲暇容量,确保要迁徙的 Pod 的理论利用率之和不超过集群内闲暇总量。这些理论闲暇容量来自于闲暇节点,一个闲暇节点理论闲暇容量 = (highThresholds – 节点以后负载) 节点总容量。假如节点 A 的负载水位是 20%,highThresholdss 是 70%,节点 A 的 CPU 总量为 96C,那么 (70%-20%) 96 = 48C,这 48C 就是能够承载的闲暇容量了。

另外,在迁徙热点节点时,会过滤筛选节点上的 Pod,目前 descheduler 反对多种筛选参数,能够防止迁徙驱赶十分重要的 Pod。

  • 按 namespace 过滤。能够配置成只筛选某些 namespace 或者过滤掉某些 namespace
  • 按 pod selector 过滤。能够通过 label selector 筛选出 Pod,或者排除掉具备某些 Label 的 Pod
  • 配置 nodeFit 查看调度规定是否有备选节点。当开启后,descheduler 依据备选 Pod 对应的 Node Affinity/Node Selector/Toleration,查看集群内是否有与之匹配的 Node,如果没有的话,该 Pod 将不会去驱赶迁徙。如果设置 nodeFit 为 false,此时齐全由 descheduler 底层的迁徙控制器实现容量预留,确保有资源后开始迁徙。

当筛选出 Pod 后,从 QoSClass、Priority、理论用量和创立工夫等多个维度对这些 Pod 排序。

筛选 Pod 并实现排序后,开始执行迁徙操作。迁徙前会查看残余闲暇容量是否满足和以后节点的负载水位是否高于指标平安阈值,如果这两个条件中的一个不能满足,将进行重调度。每迁徙一个 Pod 时,会预扣残余闲暇容量,同时也会调整以后节点的负载水位,直到残余容量有余或者水位达到平安阈值。

应用示例

  1. 更改 koord-descheduler 配置,启用 LowNodeLoad
apiVersion: v1
kind: ConfigMap
metadata:
  name: koord-descheduler-config
  ...
data:
  koord-descheduler-config: |
    apiVersion: descheduler/v1alpha2
    kind: DeschedulerConfiguration
    ...
    deschedulingInterval: 60s  # 执行周期,60s 执行一次 LowNodeLoad 插件
    profiles:
      - name: koord-descheduler
        plugins:
          deschedule:
            disabled:
              - name: "*"
          balance:
            enabled:
              - name: LowNodeLoad  # 配置开启 LowNodeLoad 插件
          ....
        pluginConfig:
        # LowNodeLoad 插件的参数
        - name: LowNodeLoad
          args:
            apiVersion: descheduler/v1alpha2
            kind: LowNodeLoadArgs
            evictableNamespaces:
            # include 和 exclude 是互斥的,只能配置其中一种。# include: # include 示意只解决上面配置的 namespace
            #   - test-namespace
              exclude:
                - "kube-system" # 须要排除的 namespace
                - "koordinator-system"
            lowThresholds:  # lowThresholds 示意闲暇节点的准入水位阈值
              cpu: 20 # CPU 利用率为 20%
              memory: 30  # Memory 利用率为 30%
            highThresholds: # highThresholds 示意指标平安阈值,超过该阈值的节点被断定为热点节点
              cpu: 50  # CPU 利用率为 50%
              memory: 60 # Memory 利用率为 60%
        ....
  1. 部署一个压测 Pod
apiVersion: apps/v1
kind: Deployment
metadata:
  name: stress-demo
  namespace: default
  labels:
    app: stress-demo
spec:
  replicas: 1
  selector:
    matchLabels:
      app: stress-demo
  template:
    metadata:
      name: stress-demo
      labels:
        app: stress-demo
    spec:
      containers:
        - args:
            - '--vm'
            - '2'
            - '--vm-bytes'
            - '1600M'
            - '-c'
            - '2'
            - '--vm-hang'
            - '2'
          command:
            - stress
          image: polinux/stress
          imagePullPolicy: Always
          name: stress
          resources:
            limits:
              cpu: '2'
              memory: 4Gi
            requests:
              cpu: '2'
              memory: 4Gi
      restartPolicy: Always
      schedulerName: koord-scheduler # use the koord-scheduler
$ kubectl create -f stress-demo.yaml
deployment.apps/stress-demo created

期待压测 Pod 变成 Running 状态

$ kubectl get pod -o wide
NAME                           READY   STATUS    RESTARTS   AGE   IP           NODE                    NOMINATED NODE   READINESS GATES
stress-demo-7fdd89cc6b-gcnzn   1/1     Running   0          82s   10.0.3.114   cn-beijing.10.0.3.121   <none>           <none>

Pod stress-demo-7fdd89cc6b-gcnzn 调度在 cn-beijing.10.0.3.121

  1. 查看每个节点的负载
$ kubectl top node
NAME                    CPU(cores)   CPU%   MEMORY(bytes)   MEMORY%
cn-beijing.10.0.3.121   2106m        54%    4452Mi          35%
cn-beijing.10.0.3.124   73m          1%     1123Mi          8%
cn-beijing.10.0.3.125   69m          1%     1064Mi          8%

依照输入结果显示,节点 cn-beijing.10.0.3.124 和 cn-beijing.10.0.3.125 负载最低,节点 cn-beijing.10.0.3.112 的负载最高,超过了配置的 highThresholds。

  1. 察看 Pod 变动,期待重调度器执行驱赶迁徙操作
$ kubectl get pod -w
NAME                           READY   STATUS               RESTARTS   AGE     IP           NODE                    NOMINATED NODE   READINESS GATES
stress-demo-7fdd89cc6b-l7psv   1/1     Running              0          4m45s   10.0.3.127   cn-beijing.10.0.3.121   <none>           <none>
stress-demo-7fdd89cc6b-l7psv   1/1     Terminating          0          8m34s   10.0.3.127   cn-beijing.10.0.3.121   <none>           <none>
stress-demo-7fdd89cc6b-b4c5g   0/1     Pending              0          0s      <none>       <none>                  <none>           <none>
stress-demo-7fdd89cc6b-b4c5g   0/1     Pending              0          0s      <none>       <none>                  <none>           <none>
stress-demo-7fdd89cc6b-b4c5g   0/1     Pending              0          0s      <none>       cn-beijing.10.0.3.124   <none>           <none>
stress-demo-7fdd89cc6b-b4c5g   0/1     ContainerCreating    0          0s      <none>       cn-beijing.10.0.3.124   <none>           <none>
stress-demo-7fdd89cc6b-b4c5g   0/1     ContainerCreating    0          3s      <none>       cn-beijing.10.0.3.124   <none>           <none>
stress-demo-7fdd89cc6b-b4c5g   1/1     Running              0          20s     10.0.3.130   cn-beijing.10.0.3.124   <none>           <none>
  1. 察看 Event,能够看到如下迁徙记录
$ kubectl get event |grep stress-demo-7fdd89cc6b-l7psv
2m45s       Normal    Evicting                  podmigrationjob/20c8c445-7fa0-4cf7-8d96-7f03bb1097d9   Try to evict Pod "default/stress-demo-7fdd89cc6b-l7psv"
2m12s       Normal    EvictComplete             podmigrationjob/20c8c445-7fa0-4cf7-8d96-7f03bb1097d9   Pod "default/stress-demo-7fdd89cc6b-l7psv" has been evicted
11m         Normal    Scheduled                 pod/stress-demo-7fdd89cc6b-l7psv                       Successfully assigned default/stress-demo-7fdd89cc6b-l7psv to cn-beijing.10.0.3.121
11m         Normal    AllocIPSucceed            pod/stress-demo-7fdd89cc6b-l7psv                       Alloc IP 10.0.3.127/24
11m         Normal    Pulling                   pod/stress-demo-7fdd89cc6b-l7psv                       Pulling image "polinux/stress"
10m         Normal    Pulled                    pod/stress-demo-7fdd89cc6b-l7psv                       Successfully pulled image "polinux/stress" in 12.687629736s
10m         Normal    Created                   pod/stress-demo-7fdd89cc6b-l7psv                       Created container stress
10m         Normal    Started                   pod/stress-demo-7fdd89cc6b-l7psv                       Started container stress
2m14s       Normal    Killing                   pod/stress-demo-7fdd89cc6b-l7psv                       Stopping container stress
11m         Normal    SuccessfulCreate          replicaset/stress-demo-7fdd89cc6b                      Created pod: stress-demo-7fdd89cc6b-l7psv

cgroup v2 反对

背景

Koordinator 中泛滥单机 QoS 能力和资源压抑 / 弹性策略构建在 Linux Control Group (cgroups) 机制上,比方 CPU QoS (cpu)、Memory QoS (memory)、CPU Burst (cpu)、CPU Suppress (cpu, cpuset),koordlet 组件能够通过 cgroups (v1) 限度容器可用资源的工夫片、权重、优先级、拓扑等属性。Linux 高版本内核也在继续加强和迭代了 cgroups 机制,带来了 cgroups v2 机制,对立 cgroups 目录构造,改善 v1 中不同 subsystem/cgroup controller 之间的合作,并进一步加强了局部子系统的资源管理和监控能力。Kubernetes 自 1.25 起将 cgroups v2 作为 GA (general availability) 个性,在 Kubelet 中启用该个性进行容器的资源管理,在对立的 cgroups 档次下设置容器的资源隔离参数,反对 MemoryQoS 的加强个性。

在 Koordinator v1.1 中,单机组件 koordlet 新增对 cgroups v2 的反对,包含如下工作:

  • 重构了 Resource Executor 模块,以对立雷同或近似的 cgroup 接口在 v1 和 v2 不同版本上的文件操作,便于 koordlet 个性兼容 cgroups v2 和合并读写抵触。
  • 在以后已凋谢的单机个性中适配 cgroups v2,采纳新的 Resource Executor 模块替换 cgroup 操作,优化不同零碎环境下的报错日志。

Koordinator v1.1 中大部分 koordlet 个性曾经兼容 cgroups v2,包含但不限于:

  • 资源利用率采集
  • 动静资源超卖
  • Batch 资源隔离(BatchResource,废除 BECgroupReconcile)
  • CPU QoS(GroupIdentity)
  • Memory QoS(CgroupReconcile)
  • CPU 动静压抑(BECPUSuppress)
  • 内存驱赶(BEMemoryEvict)
  • CPU Burst(CPUBurst)
  • L3 Cache 及内存带宽隔离(RdtResctrl)

遗留的未兼容个性如 PSICollector 将在接下来的 v1.2 版本中进行适配,能够跟进 issue#407 获取最新进展。接下来的 Koordinator 版本中也将逐步引入更多 cgroups v2 的加强性能,敬请期待。

应用 cgroups v2

在 Koordinator v1.1 中,koordlet 对 cgroups v2 的适配对下层性能配置通明,除了被废除个性的 feature-gate 以外,您无需变动 ConfigMap slo-controller-config 和其余 feature-gate 配置。当 koordlet 运行在启用 cgroups v2 的节点上时,相应单机个性将主动切换到 cgroups-v2 零碎接口进行操作。

此外,cgroups v2 是 Linux 高版本内核(倡议 >=5.8)的个性,对系统内核版本和 Kubernetes 版本有肯定依赖。倡议采纳默认启用 cgroups v2 的 Linux 发行版以及 Kubernetes v1.24 以上版本。

更多对于如何启用 cgroups v2 的阐明,请参照 Kubernetes 社区 文档

文档:

https://kubernetes.io/docs/co…

在 koordlet 中开发反对 cgroups v2 的性能

如果您冀望在 koordlet 组件中开发和定制反对 cgroups v2 的新性能,欢送理解 Koordinator v1.1 中新增的系统资源接口 Resource 和系统文件操作模块 ResourceExecutor,它们旨在优化如 cgroups、resctrl 等系统文件操作的一致性和兼容性。

您能够通过上面的形式,操作常见的 cgroups 接口,批改容器的资源隔离参数:

var (// NewCgroupReader() generates a cgroup reader for reading cgroups with the current cgroup version.
// e.g. read `memory.limit_in_bytes` on v1, while read `memory.max` on v2.
    cgroupReader = resourceexecutor.NewCgroupReader()
    // NewResourceUpdateExecutor() generates a resource update executor for updating system resources (e.g. cgroups, resctrl) cacheablely and in order.
    executor = resourceexecutor.NewResourceUpdateExecutor())

// readPodCPUSet reads the cpuset CPU IDs of the given pod.
// e.g. read `/sys/fs/cgroup/cpuset/kubepods.slice/kubepods-podxxx.slice/cpuset.cpus` -> `6-15`
func readPodCPUSet(podMeta *statesinformer.PodMeta) (string, error) {podParentDir := koordletutil.GetPodCgroupDirWithKube(podMeta.CgroupDir)
    cpus, err := cgroupReader.ReadCPUSet(podParentDir)
    if err != nil {return "", err}
    return cpus.String(), nil}

func updatePodCFSQuota(podMeta *statesinformer.PodMeta, cfsQuotaValue int64) error {podDir := koordletutil.GetPodCgroupDirWithKube(podMeta.CgroupDir)
    cfsQuotaStr := strconv.FormatInt(cfsQuotaValue, 10)
    // DefaultCgroupUpdaterFactory.New() generates a cgroup updater for cacheable updating cgroups with the current cgroup version.
    // e.g. update `cpu.cfs_quota_us` on v1, while update `cpu.max` on v2.
    updater, err := resourceexecutor.DefaultCgroupUpdaterFactory.New(system.CPUCFSQuotaName, podParentDir, cfsQuotaStr)
    if err != nil {return err}
    // Use executor to cacheable update the cgroup resource, and avoid the repeated but useless writes.
  _, err := executor.Update(true, updater)
    if err != nil {return err}
    return nil
}

您也能够通过上面的形式,新增和注册 cgroups 资源和更新函数:

// package system

const (
    // Define the cgroup filename as the resource type of the cgroup resource.
    CgroupXName   = "xx.xxx"
    CgroupYName   = "yy.yyy"
    CgroupXV2Name = "xx.xxxx"
    CgroupYV2Name = "yy.yy"
)

var (// New a cgroup v1 resource with the filename and the subsystem (e.g. cpu, cpuset, memory, blkio).
    // Optional: add a resource validator to validate the written values, and add a check function to check if the system supports this resource.
    CgroupX = DefaultFactory.New(CgroupXName, CgroupXSubfsName).WithValidator(cgroupXValidator).WithCheckSupported(cgroupXCheckSupportedFunc)
    CgroupY = DefaultFactory.New(CgroupYName, CgroupYSubfsName)
    // New a cgroup v2 resource with the corresponding v1 filename and the v2 filename.
    // Optional: add a resource validator to validate the written values, and add a check function to check if the system supports this resource.
    CgroupXV2 = DefaultFactory.NewV2(CgroupXName, CgroupXV2Name).WithValidator(cgroupXValidator).WithCheckSupported(cgroupXV2CheckSupportedFunc)
    CgroupYV2 = DefaultFactory.NewV2(CgroupYName, CgroupYV2Name).WithCheckSupported(cgroupYV2CheckSupportedFunc)
)

func init() {
    // Register the cgroup resource with the corresponding cgroup version.
    DefaultRegistry.Add(CgroupVersionV1, CgroupX, CgroupY)
    DefaultRegistry.Add(CgroupVersionV2, CgroupXV2, CgroupYV2)
}

// package resourceexecutor

func init() {
    // Register the cgroup updater with the resource type and the generator function.
    DefaultCgroupUpdaterFactory.Register(NewCommonCgroupUpdater,
    system.CgroupXName,
        system.CgroupYName,
}

烦扰检测指标采集

在实在的生产环境下,单机的运行时状态是一个“混沌零碎”,资源竞争产生的利用烦扰无奈相对防止。Koordinator 正在建设烦扰检测与优化的能力,通过提取利用运行状态的指标,进行实时的剖析和检测,在发现烦扰后对指标利用和干扰源采取更具针对性的策略。

以后 Koordinator 曾经实现了一系列 Performance Collector,在单机侧采集与利用运行状态高相关性的底层指标,并通过 Prometheus 裸露进去,为烦扰检测能力和集群利用调度提供反对。

指标采集

Performance Collector 由多个 feature-gate 进行管制,Koordinator 目前提供以下几个指标采集器:

  • CPICollector:用于管制 CPI 指标采集器。CPI:Cycles Per Instruction。指令在计算机中执行所须要的均匀时钟周期数。CPI 采集器基于 Cycles 和 Instructions 这两个 Kernel PMU(Performance Monitoring Unit)事件以及 perf_event_open(2) 零碎调用实现。
  • PSICollector:用于管制 PSI 指标采集器。PSI:Pressure Stall Information。示意容器在采集工夫距离内,因为期待 cpu、内存、IO 资源分配而阻塞的工作数。应用 PSI 采集器前,须要在 Anolis OS 中开启 PSI 性能,您能够参考文档获取开启办法。

Performance Collector 目前是默认敞开的。您能够通过批改 Koordlet 的 feature-gates 项来应用它,此项批改不会影响其余 feature-gate

kubectl edit ds koordlet -n koordinator-system
...
spec:
  ...
    spec:
      containers:
      - args:
        ...
        # modify here
        # - -feature-gates=BECPUEvict=true,BEMemoryEvict=true,CgroupReconcile=true,Accelerators=true
        - -feature-gates=BECPUEvict=true,BEMemoryEvict=true,CgroupReconcile=true,Accelerators=true,CPICollector=true,PSICollector=true

ServiceMonitor

v1.1.0 版本的 Koordinator 为 Koordlet 减少了 ServiceMonitor 的能力,将所采集指标通过 Prometheus 裸露进去,用户可基于此能力采集相应指标进行利用零碎的剖析与治理。

apiVersion: v1
kind: Service
metadata:
  labels:
    koord-app: koordlet
  name: koordlet
  namespace: koordinator-system
spec:
  clusterIP: None
  ports:
  - name: koordlet-service
    port: 9316
    targetPort: 9316
  selector:
    koord-app: koordlet
---
apiVersion: monitoring.coreos.com/v1
kind: ServiceMonitor
metadata:
  labels:
    koord-app: koordlet
  name: koordlet
  namespace: koordinator-system
spec:
  endpoints:
  - interval: 30s
    port: koordlet-service
    scheme: http
  jobLabel: koord-app
  selector:
    matchLabels:
      koord-app: koordlet

ServiceMonitor 由 Prometheus 引入,故在 helm chart 中设置默认不开启装置,能够通过以下命令装置 ServiceMonitor:

helm install koordinator https://... --set koordlet.enableServiceMonitor=true

部署后可在 Prometheus UI 找到该 Targets:

# HELP koordlet_container_cpi Container cpi collected by koordlet
# TYPE koordlet_container_cpi gauge
koordlet_container_cpi{container_id="containerd://498de02ddd3ad7c901b3c80f96c57db5b3ed9a817dbfab9d16b18be7e7d2d047",container_name="koordlet",cpi_field="cycles",node="your-node-name",pod_name="koordlet-x8g2j",pod_namespace="koordinator-system",pod_uid="3440fb9c-423b-48e9-8850-06a6c50f633d"} 2.228107503e+09
koordlet_container_cpi{container_id="containerd://498de02ddd3ad7c901b3c80f96c57db5b3ed9a817dbfab9d16b18be7e7d2d047",container_name="koordlet",cpi_field="instructions",node="your-node-name",pod_name="koordlet-x8g2j",pod_namespace="koordinator-system",pod_uid="3440fb9c-423b-48e9-8850-06a6c50f633d"} 4.1456092e+09

能够期待的是,Koordinator 烦扰检测的能力在更简单的实在场景下还须要更多检测指标的补充,后续将在如内存、磁盘 IO 等其余诸多资源的指标采集建设方面继续发力。

其余更新点

通过 v1.1 release 页面,能够看到更多版本所蕴含的新增性能。

v1.1 release:

https://github.com/koordinato…

将来布局

Koordinator 社区将不断丰富大数据计算工作混部的状态,拓展多种计算框架混部反对,丰盛工作混部解决方案,我的项目上继续的欠缺烦扰检测、问题诊断体系,推动更多的负载类型融入 Koordinator 生态,并获得更好的资源运行效率。

Koordinator 社区将继续的保持中立的发展趋势,联结各厂商继续的推动混部能力的标准化,也欢送大家退出社区独特举荐混部的标准化过程。

点击此处查看更多 Koordinator v1.1 产品性能

正文完
 0