关于腾讯云:使用-tkeautoscalingplaceholder-实现秒级弹性伸缩

28次阅读

共计 2651 个字符,预计需要花费 7 分钟才能阅读完成。

背景

当 TKE 集群配置了节点池并启用了弹性伸缩,在节点资源不够时能够触发节点的主动扩容 (主动买机器并退出集群),但这个扩容流程须要肯定的工夫能力实现,在一些流量突高的场景,这个扩容速度可能会显得太慢,影响业务。tke-autoscaling-placeholder 能够用于在 TKE 上实现秒级伸缩,应答这种流量突高的场景。

原理是什么?

tke-autoscaling-placeholder 理论就是利用低优先级的 Pod 对资源进行提前占位 (带 request 的 pause 容器,理论不怎么耗费资源),为一些可能会呈现流量突高的高优先级业务预留局部资源作为缓冲,当须要扩容 Pod 时,高优先级的 Pod 就能够疾速抢占低优先级 Pod 的资源进行调度,而低优先级的 tke-autoscaling-placeholder 的 Pod 则会被 “ 挤走 ”,状态变成 Pending,如果配置了节点池并启用弹性伸缩,就会触发节点的扩容。这样,因为有了一些资源作为缓冲,即便节点扩容慢,也能保障一些 Pod 可能疾速扩容并调度上,实现秒级伸缩。要调整预留的缓冲资源多少,可依据理论需要调整 tke-autoscaling-placeholder 的 request 或正本数。

有什么应用限度?

应用该利用要求集群版本在 1.18 以上。

如何应用?

装置 tke-autoscaling-placeholder

在利用市场找到 tke-autoscaling-placeholder,点击进入利用详情,再点 创立利用:

抉择要部署的集群 id 与 namespace,利用的配置参数中最重要的是 replicaCountresources.request,别离示意 tke-autoscaling-placeholder 的正本数与每个正本占位的资源大小,它们独特决定缓冲资源的大小,能够依据流量突高须要的额定资源量来估算进行设置。

最初点击创立,你能够查看这些进行资源占位的 Pod 是否启动胜利:

$ kubectl get pod -n default
tke-autoscaling-placeholder-b58fd9d5d-2p6ww   1/1     Running   0          8s
tke-autoscaling-placeholder-b58fd9d5d-55jw7   1/1     Running   0          8s
tke-autoscaling-placeholder-b58fd9d5d-6rq9r   1/1     Running   0          8s
tke-autoscaling-placeholder-b58fd9d5d-7c95t   1/1     Running   0          8s
tke-autoscaling-placeholder-b58fd9d5d-bfg8r   1/1     Running   0          8s
tke-autoscaling-placeholder-b58fd9d5d-cfqt6   1/1     Running   0          8s
tke-autoscaling-placeholder-b58fd9d5d-gmfmr   1/1     Running   0          8s
tke-autoscaling-placeholder-b58fd9d5d-grwlh   1/1     Running   0          8s
tke-autoscaling-placeholder-b58fd9d5d-ph7vl   1/1     Running   0          8s
tke-autoscaling-placeholder-b58fd9d5d-xmrmv   1/1     Running   0          8s

tke-autoscaling-placeholder 的残缺配置参考上面的表格:

参数 形容 默认值
replicaCount placeholder 的正本数 10
image placeholder 的镜像地址 ccr.ccs.tencentyun.com/library/pause:latest
resources.requests.cpu 单个 placeholder 正本占位的 cpu 资源大小 300m
resources.requests.memory 单个 placeholder 正本占位的内存大小 600Mi
lowPriorityClass.create 是否创立低优先级的 PriorityClass (用于被 placeholder 援用) true
lowPriorityClass.name 低优先级的 PriorityClass 的名称 low-priority
nodeSelector 指定 placeholder 被调度到带有特定 label 的节点 {}
tolerations 指定 placeholder 要容忍的污点 []
affinity 指定 placeholder 的亲和性配置 {}

部署高优先级 Pod

tke-autoscaling-placeholder 的优先级很低,咱们的业务 Pod 能够指定一个高优先的 PriorityClass,不便抢占资源实现疾速扩容,如果没有能够先创立一个:

apiVersion: scheduling.k8s.io/v1
kind: PriorityClass
metadata:
  name: high-priority
value: 1000000
globalDefault: false
description: "high priority class"

在咱们的业务 Pod 中指定 priorityClassName 为高优先的 PriorityClass:

apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx
spec:
  replicas: 8
  selector:
    matchLabels:
      app: nginx
  template:
    metadata:
      labels:
        app: nginx
    spec:
      priorityClassName: high-priority # 这里指定高优先的 PriorityClass
      containers:
      - name: nginx
        image: nginx
        resources:
          requests:
            cpu: 400m
            memory: 800Mi

当集群节点资源不够,扩容进去的高优先级业务 Pod 就能够将低优先级的 tke-autoscaling-placeholder 的 Pod 资源抢占过去并调度上,而后 tke-autoscaling-placeholder 的 Pod 再 Pending:

$ kubectl get pod -n default
NAME                                          READY   STATUS    RESTARTS   AGE
nginx-bf79bbc8b-5kxcw                         1/1     Running   0          23s

【腾讯云原生】云说新品、云研新术、云游新活、云赏资讯,扫码关注同名公众号,及时获取更多干货!!

正文完
 0