kubernetes高可用集群的典型架构
管制面组件:
- etcd:多实例并行运行,通过Raft保障统一;
- apiserver:多实例并行运行;
- controller-manager:多实例仅有1个节点active;
- scheduler:多实例仅有1个节点active;
工作节点组件:
- kubelet
- kube-proxy
apiserver多实例运行
apiserver是无状态的,所有数据保留在etcd中,apiserver不做缓存。
apiserver多个实例并行运行,通过Loadbalancer负载平衡用户的申请。
scheuler和controller-manager单实例运行
scheduler和controller-manager会批改集群状态,多实例运行会产生竞争状态。
通过--leader-elect机制,只有领导者实例能力运行,其它实例处于standby状态;当领导者实例宕机时,残余的实例选举产生新的领导者。
领导者选举的办法:多个实例抢占创立endpoints资源,创立成功者为领导者。
比方多个scheduler实例,抢占创立子endpoints资源:kube-scheduler
# kubectl get endpoints kube-scheduler -n kube-system -oyamlapiVersion: v1kind: Endpointsmetadata: annotations: control-plane.alpha.kubernetes.io/leader: '{"holderIdentity":"master1_293eaef2-fd7e-4ae9-aae7-e78615454881","leaseDurationSeconds":15,"acquireTime":"2021-10-06T20:46:43Z","renewTime":"2021-10-19T02:49:21Z","leaderTransitions":165}' creationTimestamp: "2021-02-01T03:10:48Z"......
查问kube-scheduler资源,能够看到此时master1上的scheduler是active状态,其它实例则为standby。
kubelet和kube-proxy在工作节点上运行
kubelet和kube-proxy运行在工作节点上。
kubelet负责:
- 向apiserver创立一个node资源,以注册该节点;
- 继续监控apiserver,若有pod部署到该节点上,创立并启动pod;
- 继续监控运行的pod,向apiserver报告pod的状态、事件和资源耗费;
- 周期性的运行容器的livenessProbe,当探针失败时,则重启容器;
- 继续监控apiserver,若有pod删除,则终止该容器;
kube-proxy负责:
- 负责确保对服务ip和port的拜访最终能达到pod中,通过节点上的iptables/ipvs来实现;
参考:
- kubernetes in action