乐趣区

关于腾讯云:用-edgeadm-一键安装边缘-K8s-集群和原生-K8s-集群

背景

目前,很多边缘计算容器开源我的项目在应用上均存在一个默认的前提:用户须要提前准备一个规范的或者特定工具搭建的 Kubernetes 集群,而后再通过特定工具或者其余形式在集群中部署相应组件来体验边缘能力。这无疑进步了用户体验边缘能力的门槛,而且应用上有泛滥的限度,让用户很难上手。简略整顿,大略会有如下问题:

门槛太高

  • 用户须要提前准备一个 Kubernetes 集群,对于很多用户来说门槛太高,搭建的流程比较复杂,容易失败,把很多想应用边缘能力的人群拒之门外;

限制性太大

  • 往往要求特定工具搭建的特定版本的 Kubernetes 集群,通用性太差,用户在想在理论生产环境上应用限制性太大;

增加边缘节点比拟麻烦

  • 增加边缘节点须要依附搭建 Kubernetes 集群自身的工具增加 Kubernetes 原生的节点再进行转化,对第三方工具依赖性较强,并且操作流程比拟麻烦,容易出错;

自动化能力较差

  • 无论 Kubernetes 集群的搭建,还是增加边缘节点都很难在生产环境自动化起来,相干流程还须要本人的团队进行二次开发,集成难度较大;

为了升高用户体验边缘能力的门槛,云原生社区的同学打算开发一个能够一键部署边缘 Kubernetes 集群的办法,让用户能够更容易、更简略的体验边缘 Kubernetes 集群。

架构设计

针对上述问题,为了升高用户应用边缘 Kubernetes 集群的门槛,让边缘 Kubernetes 集群具备生产能力,咱们设计了一键就能够部署进去一个边缘 Kubernetes 集群的计划,齐全屏蔽装置细节,让用户能够零门槛的体验边缘能力。

初衷

  • 让用户很简略、无门槛的应用边缘 Kubernetes 集群,并能在生产环境真正把边缘能力用起来;

指标

一键化应用

  • 可能一键搭建起一个边缘 Kubernetes 集群;
  • 可能一键很简略、很灵便的增加边缘节点;

两种装置创景

  • 反对在线装置;
  • 反对离线装置,让私有化环境也能很简略;

可生产应用

  • 不要封装太多,能够让想应用边缘 Kubernetes 集群的团队能在外部零碎进行简略的集成,就生产可用;

零学习老本

  • 尽可能的和 kubeadm 的应用形式保持一致,让用户无额定的学习老本,会用 kubeadm 就会用 edgeadm;

准则

  • 不批改 kubeadm 源码

    • 尽量援用和复用 kubeadm 的源码,尽量不批改 kubeadm 的源码,防止前面降级的隐患;
    • 基于 kubeadm 但又高于 kubeadm,不用被 kubeadm 的设计所局限,只有能让用户应用起来更简略就能够被容许;
  • 容许用户抉择是否部署边缘能力组件;
  • 容许用户自定义边缘能力组件的配置;

设计与实现

咱们钻研了 kubeadm 的源码,发现能够借用 kubeadm 创立原生 Kubernetes 集群、join 节点、workflow 思维来一键部署边缘 Kubernetes 集群,并且能够分步去执行装置步骤。这正是咱们想要的简略、灵便、低学习老本的部署计划。于是咱们站在伟人的肩膀上,利用 Kubedam 的思维,复用 kubeadm 的源码,设计出了如下的解决方案。

其中 kubeadm init cluster/join node局部齐全复用了 kubadm 的源码,所有逻辑和 kubeadm 完全相同。

这个计划有如下几个长处:

齐全兼容 kubeadm

咱们只是站在 kubeadm 的肩膀上,在 kubeadm init/join 之前设置了一些边缘集群须要的配置参数,将初始化 Master 或 Node 节点自动化,装置了容器运行时。在 kubeadm init/join 实现之后,装置了 CNI 网络插件和部署了相应的边缘能力组件。

咱们以 Go Mod 形式援用了 kubeadm 源码,整个过程中并未对 kubeadm 的源码批改过一行,齐全的原生,为前面降级更高版本的 kubeadm 做好了筹备。

一键化,用起来简略、灵便、自动化

edgeadm init 集群和 join 节点齐全保留了 kubeadm init/join 原有的参数和流程,只是主动了初始化节点和装置容器运行时,能够用 edgeadm --enable-edge=fasle 参数来一键化装置原生 Kubernetes 集群,也能够用 edgeadm --enable-edge=true 参数一键化来装置边缘 Kubernetes 集群。

能够 Join 任何只有可能拜访到 Kube-apiserver 位于任何地位的节点, 也能够 join master。join master 也连续了 kubeadm 的的形式,搭建高可用的节点能够在须要的时候,间接用 join master 去扩容 Master 节点,实现高可用。

无学习老本,和 kubeadm 的应用完全相同

因为 kubeadm init cluster/join node 局部齐全复用了 kubadm 的源码,所有逻辑和 kubeadm 完全相同,齐全保留了 kubeadm 的应用习惯和所有 flag 参数,用法和 kubeadm 应用齐全一样,没有任何新的学习老本,用户能够按 kubeadm 的参数或者应用 kubeadm.config 去自定义边缘 Kubernetes 集群。

边缘节点平安加强

借助 Kubernetes Node 鉴权机制,咱们默认开启了 NodeRestriction 准入插件,确保每个节点身份都惟一,只具备最小权限集,即便某个边缘节点被攻破也无奈操作其余边缘节点。

Kubelet 咱们也默认开启了 Kubelet 配置证书轮换机制,在 Kubelet 证书行将过期时,将主动生成新的秘钥,并从 Kubernetes API 申请新的证书。一旦新的证书可用,它将被用于与 Kubernetes API 间的连贯认证。

用 edgeadm 装置边缘 Kubernetes 集群

以下流程社区曾经录制了具体教程视频,可联合文档进行装置:

视频资源链接:用 edgeadm 一键装置边缘 Kubernetes 集群和原生 Kubernetes 集群

装置条件

  • 遵循 kubeadm 的最低要求,Master && Node 最低 2C2G,磁盘空间不小于 1G;
  • 目前反对 amd64、arm64 两个体系;

    其余体系可自行编译 edgeadm 和制作相应体系安装包,可参考 5. 自定义 Kubernetes 动态安装包

  • 反对的 Kubernetes 版本:大于等于 v1.18,提供的安装包仅提供 Kubernetes v1.18.2 版本;

    其余 Kubernetes 版本可参考 5. 自定义 Kubernetes 动态安装包,自行制作。

下载 edgeadm 动态安装包

下载 edgeadm 动态安装包,并拷贝到所有 Master 和 Node 节点。

留神批改 ”arch=amd64″ 参数,目前反对[amd64, amd64], 下载本人机器对应的体系结构,其余参数不变

arch=amd64 version=v0.3.0-beta.0 && rm -rf edgeadm-linux-* && wget https://superedge-1253687700.cos.ap-guangzhou.myqcloud.com/$version/$arch/edgeadm-linux-$arch-$version.tgz && tar -xzvf edgeadm-linux-* && cd edgeadm-linux-$arch-$version && ./edgeadm

安装包大概 200M,对于安装包的详细信息可查看 5. 自定义 Kubernetes 动态安装包

如果下载安装包比较慢,可间接查看相应 SuperEdge 相应版本, 下载edgeadm-linux-amd64/arm64-*.0.tgz,并解压也是一样的。

一键装置边缘独立 Kubernetes 集群性能从 SuperEdge-v0.3.0-beta.0 开始反对,留神下载 v0.3.0-beta.0 及当前版本。

装置边缘 Kubernetes Master 节点

./edgeadm init --kubernetes-version=1.18.2 --image-repository superedge.tencentcloudcr.com/superedge --service-cidr=10.96.0.0/12 --pod-network-cidr=192.168.0.0/16 --install-pkg-path ./kube-linux-*.tar.gz --apiserver-cert-extra-sans=<Master 节点外网 IP> --apiserver-advertise-address=<Master 节点内网 IP> --enable-edge=true -v=6

其中:

  • –enable-edge=true: 是否部署边缘能力组件,默认 true

–enable-edge=false 示意装置原生 Kubernetes 集群,和 kubeadm 搭建的集群齐全一样;

  • –install-pkg-path: Kubernetes 动态安装包的地址

–install-pkg-path 的值能够为机器上的门路,也能够为网络地址(比方:http://xxx/xxx/kube-linux-arm… 能免密 wget 到就能够),留神用和机器体系匹配的 Kubernetes 动态安装包;

  • –apiserver-cert-extra-sans:kube-apiserver 的证书扩大地址

    • 举荐签订 Master 节点外网 IP 或者域名,只有 签订的 Master 节点的 IP 或者域名能被边缘节点拜访到 就能够,当然内网 IP 也被容许,前提是边缘节点能够通过此 IP 拜访 Kube-apiserver。自定义域名的话可自行在所有 Matser 和 Node 节点配置 hosts;
    • 签订外网 IP 和域名,是因为边缘节点个别和 Master 节点不在同一局域网,须要通过外网来退出和拜访 Master;
  • –image-repository:镜像仓库地址

要是 superedge.tencentcloudcr.com/superedge 比较慢,可换成其余减速镜像仓库,只有能 Pull 下来 kube-apiserver,kube-controller-manager,kube-scheduler,kube-proxy,etcd,pause……镜像就能够。

其余参数和 kubeadm 含意完全相同,可按 kubeadm 的要求进行配置。

也可用 kubeadm.config 配置 kubeadm 的原参数,通过 edgeadm init --config kubeadm.config --install-pkg-path ./kube-linux-*.tar.gz 来创立边缘 Kubernetes 集群。

要是执行过程中没有问题,集群胜利初始化,会输入如下内容:

Your Kubernetes control-plane has initialized successfully!

To start using your cluster, you need to run the following as a regular user:

  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config
  
You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  https://kubernetes.io/docs/concepts/cluster-administration/addons/
  
Then you can join any number of worker nodes by running the following on each as root:

edgeadm join xxx.xxx.xxx.xxx:xxx --token xxxx \
    --discovery-token-ca-cert-hash sha256:xxxxxxxxxx
    --install-pkg-path <Path of edgeadm kube-* install package>

执行过程中如果呈现问题会间接返回相应的错误信息,并中断集群的初始化,可应用 ./edgeadm reset 命令回滚集群的初始化操作。

设置 Master kube-config 文件

要使非 root 用户能够运行 kubectl,请运行以下命令,它们也是 edgeadm init 输入的一部分:

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

或者,如果你是 root 用户,则能够运行:

export KUBECONFIG=/etc/kubernetes/admin.conf

留神保留 ./edgeadm init 输入的 ./edgeadm join 命令,前面增加 Node 节点时会用到。

其中 token 的有效期和 kubeadm 一样 24h,过期之后能够用./edgeadm token create 创立新的 token。

–discovery-token-ca-cert-hash 的值生成也同 kubeadm,可在 Master 节点执行上面命令生成。

openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | openssl dgst -sha256 -hex | sed 's/^.* //'

Join 边缘节点

在边缘节点上执行 <2>. 下载 edgeadm 动态安装包,或者通过其余形式把 edgeadm 动态安装包上传到边缘节点,而后执行如下命令:

./edgeadm join <Master 节点外网 IP/Master 节点内网 IP/ 域名 >:Port --token xxxx \
     --discovery-token-ca-cert-hash sha256:xxxxxxxxxx 
     --install-pkg-path <edgeadm Kube-* 动态安装包地址 /FTP 门路 > --enable-edge=true

其中:

  • <Master 节点外网 IP/Master 节点内网 IP/ 域名 >:Port 是节点拜访 Kube-apiserver 服务的地址

能够把 edgeadm init 退出节点提醒的 Kube-apiserver 服务的地址视状况换成Master 节点外网 IP/Master 节点内网 IP/ 域名,次要取决于想让节点通过外网还是内网拜访 Kube-apiserver 服务。

  • –enable-edge=true: 退出的节点是否作为边缘节点(是否部署边缘能力组件),默认 true

–enable-edge=false 示意 join 原生 Kubernetes 集群节点,和 kubeadm join 的节点齐全一样;

如果执行过程中没有问题,新的 Node 胜利退出集群,会输入如下内容:

This node has joined the cluster:
* Certificate signing request was sent to apiserver and a response was received.
* The Kubelet was informed of the new secure connection details.
Run 'kubectl get nodes' on the control-plane to see this node join the cluster.

执行过程中如果呈现问题会间接返回相应的错误信息,并中断节点的增加,可应用 ./edgeadm reset 命令回滚退出节点的操作,从新 join。

提醒:如果边缘节点 join 胜利后都会给边缘节点打一个 label: superedge.io/edge-node=enable,不便后续利用用 nodeSelector 抉择利用调度到边缘节点;

原生 Kubernetes 节点和 kubeadm 的 join 一样,不会做任何操作。

用 edgeadm 装置边缘高可用 Kubernetes 集群

装置前提

  • 筹备一个 Master VIP,做为可用负载平衡对立入口;
  • 3 台满足 kubeadm 的最低要求 的机器作为 Master 节点;
  • 3 台满足 kubeadm 的最低要求 的机器做 worker 节点;

装置 Haproxy

在 Master 上装置 Haproxy 作为集群总入口

留神:替换配置文件中的 < Master VIP >

# yum install -y haproxy# cat << EOF >/etc/haproxy/haproxy.cfgglobal    log         127.0.0.1 local2    chroot      /var/lib/haproxy    pidfile     /var/run/haproxy.pid    maxconn     4000    user        haproxy    group       haproxy    daemon    stats socket /var/lib/haproxy/statsdefaults    mode                    http    log                     global    option                  httplog    option                  dontlognull    option http-server-close    option forwardfor       except 127.0.0.0/8    option                  redispatch    retries                 3    timeout http-request    10s    timeout queue           1m    timeout connect         10s    timeout client          1m    timeout server          1m    timeout http-keep-alive 10s    timeout check           10s    maxconn                 3000frontend  main *:5000    acl url_static       path_beg       -i /static /images /javascript /stylesheets    acl url_static       path_end       -i .jpg .gif .png .css .js    use_backend static          if url_static    default_backend             appfrontend kubernetes-apiserver    mode                 tcp    bind                 *:16443    option               tcplog    default_backend      kubernetes-apiserverbackend kubernetes-apiserver    mode        tcp    balance     roundrobin    server  master-0  <Master VIP>:6443 check # 这里替换 Master VIP 为用户本人的 VIPbackend static    balance     roundrobin    server      static 127.0.0.1:4331 checkbackend app    balance     roundrobin    server  app1 127.0.0.1:5001 check    server  app2 127.0.0.1:5002 check    server  app3 127.0.0.1:5003 check    server  app4 127.0.0.1:5004 checkEOF

装置 Keepalived

在所有 Master 装置 Keepalived,执行同样操作:
留神:

  • 替换配置文件中的 < Master VIP >
  • 上面的 keepalived.conf 配置文件中 < Master 本机外网 IP > 和 < 其余 Master 外网 IP > 在不同 Master 的配置须要调换地位,不要填错。
  ## 装置 keepalived  yum install -y keepalived  cat << EOF >/etc/keepalived/keepalived.conf   ! Configuration File for keepalived  global_defs {smtp_connect_timeout 30     router_id LVS_DEVEL_EDGE_1}  vrrp_script checkhaproxy{script "/etc/keepalived/do_sth.sh"  interval 5}  vrrp_instance VI_1 {state BACKUP      interface eth0      nopreempt      virtual_router_id 51      priority 100      advert_int 1      authentication {          auth_type PASS          auth_pass aaa}      virtual_ipaddress {<master VIP> # 这里替换 Master VIP 为用户本人的 VIP}      unicast_src_ip <Master 本机外网 IP>      unicast_peer {< 其余 Master 外网 IP>        < 其余 Master 外网 IP>}  notify_master "/etc/keepalived/notify_action.sh master"  notify_backup "/etc/keepalived/notify_action.sh BACKUP"  notify_fault "/etc/keepalived/notify_action.sh FAULT"  notify_stop "/etc/keepalived/notify_action.sh STOP"  garp_master_delay 1  garp_master_refresh 5     track_interface {eth0}     track_script {checkhaproxy}  }  EOF

装置高可用边缘 Kubernetes Master

在其中一台 Master 中执行集群初始化操作

./edgeadm init --control-plane-endpoint <Master VIP> --upload-certs --kubernetes-version=1.18.2 --image-repository superedge.tencentcloudcr.com/superedge --service-cidr=10.96.0.0/12 --pod-network-cidr=192.168.0.0/16 --apiserver-cert-extra-sans=<Master 节点外网 IP/Master 节点内网 IP/ 域名 /> --install-pkg-path <edegadm Kube-* 动态安装包地址 > -v=6

参数含意同 3. 用 edgeadm 装置边缘 Kubernetes 集群,其余和 kubeadm 统一,这里不在解释;

要是执行过程中没有问题,集群胜利初始化,会输入如下内容:

Your Kubernetes control-plane has initialized successfully!To start using your cluster, you need to run the following as a regular user:  mkdir -p $HOME/.kube  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config  sudo chown $(id -u):$(id -g) $HOME/.kube/config  You should now deploy a pod network to the cluster.Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:  https://kubernetes.io/docs/concepts/cluster-administration/addons/  You can now join any number of the control-plane node running the following command on each as root:  edgeadm join xxx.xxx.xxx.xxx:xxx --token xxxx \    --discovery-token-ca-cert-hash sha256:xxxxxxxxxx \    --control-plane --certificate-key xxxxxxxxxx    --install-pkg-path <Path of edgeadm kube-* install package>    Please note that the certificate-key gives access to cluster sensitive data, keep it secret!As a safeguard, uploaded-certs will be deleted in two hours; If necessary, you can use"edgeadm init phase upload-certs --upload-certs" to reload certs afterward.Then you can join any number of worker nodes by running the following on each as root:edgeadm join xxx.xxx.xxx.xxx:xxxx --token xxxx \    --discovery-token-ca-cert-hash sha256:xxxxxxxxxx      --install-pkg-path <Path of edgeadm kube-* install package>

执行过程中如果呈现问题会间接返回相应的错误信息,并中断集群的初始化,应用 ./edgeadm reset 命令回滚集群的初始化操作。

要使非 root 用户能够运行 kubectl,请运行以下命令,它们也是 edgeadm init 输入的一部分:

mkdir -p $HOME/.kubesudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/configsudo chown $(id -u):$(id -g) $HOME/.kube/config

或者,如果你是 root 用户,则能够运行:

export KUBECONFIG=/etc/kubernetes/admin.conf

留神保留 ./edgeadm init 输入的 ./edgeadm join 命令,前面增加 Master 节点和边缘节点须要用到。

Join Master 节点

在另一台 Master 执行 ./edgeadm join 命令

./edgeadm join xxx.xxx.xxx.xxx:xxx --token xxxx    \    --discovery-token-ca-cert-hash sha256:xxxxxxxxxx \    --control-plane --certificate-key xxxxxxxxxx     \    --install-pkg-path <edgeadm Kube-* 动态安装包地址 

要是执行过程中没有问题,新的 Master 胜利退出集群,会输入如下内容:

This node has joined the cluster and a new control plane instance was created:* Certificate signing request was sent to apiserver and approval was received.* The Kubelet was informed of the new secure connection details.* Control plane (master) label and taint were applied to the new node.* The Kubernetes control plane instances scaled up.* A new etcd member was added to the local/stacked etcd cluster.To start administering your cluster from this node, you need to run the following as a regular user:        mkdir -p $HOME/.kube        sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config        sudo chown $(id -u):$(id -g) $HOME/.kube/config        Run 'kubectl get nodes' to see this node join the cluster.

执行过程中如果呈现问题会间接返回相应的错误信息,并中断节点的增加,应用 ./edgeadm reset 命令回滚集群的初始化操作。

Join node 边缘节点

./edgeadm join xxx.xxx.xxx.xxx:xxxx --token xxxx \    --discovery-token-ca-cert-hash sha256:xxxxxxxxxx     --install-pkg-path <edgeadm Kube-* 动态安装包地址 /FTP 门路 >

要是执行过程中没有问题,新的 node 胜利退出集群,会输入如下内容:

This node has joined the cluster:* Certificate signing request was sent to apiserver and a response was received.* The Kubelet was informed of the new secure connection details.Run 'kubectl get nodes' on the control-plane to see this node join the cluster.

执行过程中如果呈现问题会间接返回相应的错误信息,并中断节点的增加,应用 ./edgeadm reset 命令回滚集群的初始化操作。

自定义 Kubernetes 动态安装包

Kubernetes 动态安装包的目录构造如下:

kube-linux-arm64-v1.18.2.tar.gz ## kube-v1.18.2 arm64 的 Kubernetes 动态安装包├── bin                         ## 二进制目录│   ├── conntrack               ## 连贯跟踪的二进制文件│   ├── kubectl                 ## kube-v1.18.2 的 kubectl│   ├── kubelet                 ## kube-v1.18.2 的 kubelet│   └── lite-apiserver          ## 相应版本的 lite-apiserver,可编译 SuperEdge 的 lite-apiserver 生成├── cni                         ## cin 的配置│   └── cni-plugins-linux-v0.8.3.tar.gz ## v0.8.3 的 CNI 插件二进制压缩包└── container                   ## 容器运行时目录    └── docker-19.03-linux-arm64.tar.gz ## docker 19.03 arm64 体系的装置脚本和安装包

自定义其余 Kubernetes 版本

自定义其余 Kubernetes 版本须要做的有两件事:

  • 替换 二进制目录 中的 kubectl 和 kubelet 文件,版本须要大于等于 Kubernetes v1.18.0;
  • 确保 init 应用的镜像仓库中有相应 Kubernetes 版本的根底镜像;

自定义其余体系 Kubernetes 动态安装包

自定义 Kubernetes 动态安装包其余体系须要做三件事:

  • 将 Kubernetes 动态安装包的所有二进制换成指标体系,包含 cni 和 container 相应安装包中的二进制;
  • 确保 init 应用的镜像仓库中有相应体系的 Kubernetes 版本的根底镜像,举荐应用多体系镜像;
  • 充沛测试,确保没有什么兼容问题。要有相干问题,也能够在 SuperEdge 社区提 Issues 一块来修复。

【腾讯云原生】云说新品、云研新术、云游新活、云赏资讯,扫码关注同名公众号,及时获取更多干货!!

退出移动版