kubernetes高可用集群的典型架构

管制面组件:

  • etcd:多实例并行运行,通过Raft保障统一;
  • apiserver:多实例并行运行;
  • controller-manager:多实例仅有1个节点active;
  • scheduler:多实例仅有1个节点active;

工作节点组件:

  • kubelet
  • kube-proxy

apiserver多实例运行

apiserver是无状态的,所有数据保留在etcd中,apiserver不做缓存。

apiserver多个实例并行运行,通过Loadbalancer负载平衡用户的申请。

scheuler和controller-manager单实例运行

scheduler和controller-manager会批改集群状态,多实例运行会产生竞争状态。

通过--leader-elect机制,只有领导者实例能力运行,其它实例处于standby状态;当领导者实例宕机时,残余的实例选举产生新的领导者。

领导者选举的办法:多个实例抢占创立endpoints资源,创立成功者为领导者。
比方多个scheduler实例,抢占创立子endpoints资源:kube-scheduler

# kubectl get endpoints kube-scheduler -n kube-system -oyamlapiVersion: v1kind: Endpointsmetadata:  annotations:    control-plane.alpha.kubernetes.io/leader: '{"holderIdentity":"master1_293eaef2-fd7e-4ae9-aae7-e78615454881","leaseDurationSeconds":15,"acquireTime":"2021-10-06T20:46:43Z","renewTime":"2021-10-19T02:49:21Z","leaderTransitions":165}'  creationTimestamp: "2021-02-01T03:10:48Z"......

查问kube-scheduler资源,能够看到此时master1上的scheduler是active状态,其它实例则为standby。

kubelet和kube-proxy在工作节点上运行

kubelet和kube-proxy运行在工作节点上。

kubelet负责:

  • 向apiserver创立一个node资源,以注册该节点;
  • 继续监控apiserver,若有pod部署到该节点上,创立并启动pod;
  • 继续监控运行的pod,向apiserver报告pod的状态、事件和资源耗费;
  • 周期性的运行容器的livenessProbe,当探针失败时,则重启容器;
  • 继续监控apiserver,若有pod删除,则终止该容器;

kube-proxy负责:

  • 负责确保对服务ip和port的拜访最终能达到pod中,通过节点上的iptables/ipvs来实现;

参考:

  1. kubernetes in action