背景:
降级是一件继续的事件:Kubernetes 1.16.15 降级到 1.17.17,Kubernetes 1.17.17 降级到 1.18.20
集群配置:
主机名 | 零碎 | ip |
---|---|---|
k8s-vip | slb | 10.0.0.37 |
k8s-master-01 | centos7 | 10.0.0.41 |
k8s-master-02 | centos7 | 10.0.0.34 |
k8s-master-03 | centos7 | 10.0.0.26 |
k8s-node-01 | centos7 | 10.0.0.36 |
k8s-node-02 | centos7 | 10.0.0.83 |
k8s-node-03 | centos7 | 10.0.0.40 |
k8s-node-04 | centos7 | 10.0.0.49 |
k8s-node-05 | centos7 | 10.0.0.45 |
k8s-node-06 | centos7 | 10.0.0.18 |
1. 参考官网文档
参照:https://kubernetes.io/zh/docs/tasks/administer-cluster/kubeadm/kubeadm-upgrade/
2. 确认可降级版本与降级计划
yum list --showduplicates kubeadm --disableexcludes=kubernetes
通过以上命令查问到 1.19 以后最新版本是 1.19.12- 0 版本。master 有三个节点还是依照集体习惯先降级 k8s-master-03 节点
3. 降级 k8s-master-03 节点管制立体
仍然 k8s-master-03 执行:
1. yum 降级 kubernetes 插件
yum install kubeadm-1.19.12-0 kubelet-1.19.12-0 kubectl-1.19.12-0 --disableexcludes=kubernetes
2. 凌空节点查看集群是否能够降级
仍然算是复习 drain 命令:
kubectl drain k8s-master-03 --ignore-daemonsets
sudo kubeadm upgrade plan
3. 降级版本到 1.19.12
kubeadm upgrade apply 1.19.12
留神:特意强调一下 work 节点的版本也都是 1.18.20 了,没有呈现夸更多版本的情况了
[root@k8s-master-03 ~]# sudo systemctl daemon-reload
[root@k8s-master-03 ~]# sudo systemctl restart kubelet
[root@k8s-master-03 ~]# kubectl uncordon k8s-master-03
node/k8s-master-03 uncordoned
4. 降级其余管制立体(k8s-master-01 k8s-master-02)
sudo yum install kubeadm-1.19.12-0 kubelet-1.19.12-0 kubectl-1.19.12-0 --disableexcludes=kubernetes
sudo kubeadm upgrade node
sudo systemctl daemon-reload
sudo systemctl restart kubelet
5. work 节点的降级
sudo yum install kubeadm-1.19.12-0 kubelet-1.19.12-0 kubectl-1.19.12-0 --disableexcludes=kubernetes
sudo kubeadm upgrade node
sudo systemctl daemon-reload
sudo systemctl restart kubelet
6. 验证降级
kubectl get nodes
7. 其余
查看一眼 kube-system 下插件的日志,确认插件是否失常
kubectl logs -f kube-controller-manager-k8s-master-01 -n kube-system
目测是没有问题的就不论了 …. 嗯 Prometheus 的问题还是留着。原本也筹备装置主线版本了。过来的筹备卸载了. 如呈现 cluseterrole 问题可参照:Kubernetes 1.16.15 降级到 1.17.17