乐趣区

关于kubernetes:Kubernetes-11820升级到11912

背景:

降级是一件继续的事件:Kubernetes 1.16.15 降级到 1.17.17,Kubernetes 1.17.17 降级到 1.18.20

集群配置:

主机名 零碎 ip
k8s-vip slb 10.0.0.37
k8s-master-01 centos7 10.0.0.41
k8s-master-02 centos7 10.0.0.34
k8s-master-03 centos7 10.0.0.26
k8s-node-01 centos7 10.0.0.36
k8s-node-02 centos7 10.0.0.83
k8s-node-03 centos7 10.0.0.40
k8s-node-04 centos7 10.0.0.49
k8s-node-05 centos7 10.0.0.45
k8s-node-06 centos7 10.0.0.18

1. 参考官网文档

参照:https://kubernetes.io/zh/docs/tasks/administer-cluster/kubeadm/kubeadm-upgrade/

2. 确认可降级版本与降级计划

yum list --showduplicates kubeadm --disableexcludes=kubernetes

通过以上命令查问到 1.19 以后最新版本是 1.19.12- 0 版本。master 有三个节点还是依照集体习惯先降级 k8s-master-03 节点

3. 降级 k8s-master-03 节点管制立体

仍然 k8s-master-03 执行:

1. yum 降级 kubernetes 插件

yum install kubeadm-1.19.12-0 kubelet-1.19.12-0 kubectl-1.19.12-0 --disableexcludes=kubernetes

2. 凌空节点查看集群是否能够降级

仍然算是复习 drain 命令:

kubectl drain k8s-master-03 --ignore-daemonsets
sudo kubeadm upgrade plan

3. 降级版本到 1.19.12

kubeadm upgrade apply 1.19.12

留神:特意强调一下 work 节点的版本也都是 1.18.20 了,没有呈现夸更多版本的情况了

[root@k8s-master-03 ~]# sudo systemctl daemon-reload
[root@k8s-master-03 ~]# sudo systemctl restart kubelet
[root@k8s-master-03 ~]# kubectl uncordon k8s-master-03
node/k8s-master-03 uncordoned

4. 降级其余管制立体(k8s-master-01 k8s-master-02)

sudo yum install kubeadm-1.19.12-0 kubelet-1.19.12-0 kubectl-1.19.12-0 --disableexcludes=kubernetes
sudo kubeadm upgrade node
sudo systemctl daemon-reload
sudo systemctl restart kubelet


5. work 节点的降级

sudo yum install kubeadm-1.19.12-0 kubelet-1.19.12-0 kubectl-1.19.12-0 --disableexcludes=kubernetes
sudo kubeadm upgrade node
sudo systemctl daemon-reload
sudo systemctl restart kubelet

6. 验证降级

 kubectl get nodes

7. 其余

查看一眼 kube-system 下插件的日志,确认插件是否失常

kubectl logs -f kube-controller-manager-k8s-master-01 -n kube-system


目测是没有问题的就不论了 …. 嗯 Prometheus 的问题还是留着。原本也筹备装置主线版本了。过来的筹备卸载了. 如呈现 cluseterrole 问题可参照:Kubernetes 1.16.15 降级到 1.17.17

退出移动版