环境版本说明:
- 三台 vmware 虚拟机,系统版本 CentOS7.6。
- Kubernetes 1.16.0,当前最新版。
- flannel v0.11
- docker 18.09
使用 kubeadm 可以简单的搭建一套 k8s 集群环境,而不用关注安装部署的细节,而且现在 k8s 的版本更新频率很快,所以这种方法十分推荐。
相关准备
注:本节相关操作要在所有节点上执行。
硬件环境
使用三台 vmware 虚拟机,配置网络,并保证可以联网。
- k8s-master 4G 4 核 CentOS7 192.168.10.20
- k8s-node1 2G 2 核 CentOS7 192.168.10.21
- k8s-node2 2G 2 核 CentOS7 192.168.10.22
主机划分
- k8s-master 作为集群管理节点:etcd kubeadm kube-apiserver kube-scheduler kube-controller-manager kubelet flanneld docker
- k8s-node1 作为工作节点:kubeadm kubelet flanneld docker
- k8s-node2 作为工作节点:kubeadm kubelet flanneld docker
准备工作
安装必要的 rpm 软件:
yum install -y wget vim net-tools epel-release
关闭防火墙
systemctl disable firewalld
systemctl stop firewalld
关闭 selinux
# 临时禁用 selinux
setenforce 0
# 永久关闭 修改 /etc/sysconfig/selinux 文件设置
sed -i 's/SELINUX=permissive/SELINUX=disabled/' /etc/sysconfig/selinux
sed -i "s/SELINUX=enforcing/SELINUX=disabled/g" /etc/selinux/config
禁用交换分区
swapoff -a
# 永久禁用,打开 /etc/fstab 注释掉 swap 那一行。sed -i 's/.*swap.*/#&/' /etc/fstab
修改 /etc/hosts
cat <<EOF >> /etc/host
192.168.10.20 k8s-master
192.168.10.21 k8s-node1
192.168.10.22 k8s-node2
EOF
修改内核参数
cat <<EOF > /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
sysctl --system
安装 docker18.09
配置 yum 源
## 配置默认源
## 备份
mv /etc/yum.repos.d/CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo.backup
## 下载阿里源
wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
## 刷新
yum makecache fast
## 配置 k8s 源
cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
EOF
## 重建 yum 缓存
yum clean all
yum makecache fast
yum -y update
安装 docker
下载 docker 的 yum 源文件
yum -y install yum-utils device-mapper-persistent-data lvm2
yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
这里指定 docker 版本,可以先查看支持的版本
[root@localhost ~]# yum list docker-ce --showduplicates |sort -r
* updates: mirrors.aliyun.com
Loading mirror speeds from cached hostfile
Loaded plugins: fastestmirror
* extras: mirrors.aliyun.com
* epel: hkg.mirror.rackspace.com
docker-ce.x86_64 3:19.03.2-3.el7 docker-ce-stable
docker-ce.x86_64 3:19.03.1-3.el7 docker-ce-stable
docker-ce.x86_64 3:19.03.0-3.el7 docker-ce-stable
docker-ce.x86_64 3:18.09.9-3.el7 docker-ce-stable
...
* base: mirrors.aliyun.com
目前最新版本为 19.03,指定下载 18.09
yum install -y docker-ce-18.09.9-3.el7
systemctl enable docker
systemctl start docker
修改 docker 的启动参数
cat > /etc/docker/daemon.json <<EOF
{"registry-mirrors": ["https://dhq9bx4f.mirror.aliyuncs.com"],
"exec-opts": ["native.cgroupdriver=systemd"],
"log-driver": "json-file",
"log-opts": {"max-size": "100m"},
"storage-driver": "overlay2",
"storage-opts": ["overlay2.override_kernel_check=true"]
}
EOF
systemctl restart docker
安装 k8s
管理节点配置
先在 k8s-master 上安装管理节点
下载 kubeadm,kubelet
yum install -y kubeadm kubelet
初始化 kubeadm
这里不直接初始化,因为国内用户不能直接拉取相关的镜像,所以这里想查看需要的镜像版本
[root@k8s-master ~]# kubeadm config images list
k8s.gcr.io/kube-apiserver:v1.16.0
k8s.gcr.io/kube-controller-manager:v1.16.0
k8s.gcr.io/kube-scheduler:v1.16.0
k8s.gcr.io/kube-proxy:v1.16.0
k8s.gcr.io/pause:3.1
k8s.gcr.io/etcd:3.3.15-0
k8s.gcr.io/coredns:1.6.2
根据需要的版本,直接拉取国内镜像,并修改 tag
# vim kubeadm.sh
#!/bin/bash
## 使用如下脚本下载国内镜像,并修改 tag 为 google 的 tag
set -e
KUBE_VERSION=v1.16.0
KUBE_PAUSE_VERSION=3.1
ETCD_VERSION=3.3.15-0
CORE_DNS_VERSION=1.6.2
GCR_URL=k8s.gcr.io
ALIYUN_URL=registry.cn-hangzhou.aliyuncs.com/google_containers
images=(kube-proxy:${KUBE_VERSION}
kube-scheduler:${KUBE_VERSION}
kube-controller-manager:${KUBE_VERSION}
kube-apiserver:${KUBE_VERSION}
pause:${KUBE_PAUSE_VERSION}
etcd:${ETCD_VERSION}
coredns:${CORE_DNS_VERSION})
for imageName in ${images[@]} ; do
docker pull $ALIYUN_URL/$imageName
docker tag $ALIYUN_URL/$imageName $GCR_URL/$imageName
docker rmi $ALIYUN_URL/$imageName
done
运行脚本,拉取镜像
sh ./kubeadm.sh
master 节点执行
sudo kubeadm init \
--apiserver-advertise-address 192.168.10.20 \
--kubernetes-version=v1.16.0 \
--pod-network-cidr=10.244.0.0/16
注:这里的 pod-network-cidr,最好不要改动,和以下的步骤是关联的。
结果返回
...
...
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
...
## 添加节点需要执行以下命令,可以使用命令 kubeadm token create --print-join-command 来获取
kubeadm join 192.168.10.20:6443 --token lixsl8.v1auqmf91ty0xl0k \
--discovery-token-ca-cert-hash sha256:c3f92a6ed9149ead327342f48a545e7e127a455d5b338129feac85893d918a55
如果是要安装多个 master 节点,则初始化命令使用
kubeadm init --apiserver-advertise-address 192.168.10.20 --control-plane-endpoint 192.168.10.20 --kubernetes-version=v1.16.0 --pod-network-cidr=10.244.0.0/16 --upload-certs
添加 master 节点使用命令:
kubeadm join 192.168.10.20:6443 --token z34zii.ur84appk8h9r3yik --discovery-token-ca-cert-hash sha256:dae426820f2c6073763a3697abeb14d8418c9268288e37b8fc25674153702801 --control-plane --certificate-key 1b9b0f1fdc0959a9decef7d812a2f606faf69ca44ca24d2e557b3ea81f415afe
注:这里的 token 会不同,不要直接复制。kubeadm init 成功后会输出添加 master 节点的命令
工作节点配置
下载 kubeadm kubelet
三台节点都要运行
yum install -y kubeadm kubelet
添加节点
三台节点都要运行,这里先忽略错误
kubeadm join 192.168.10.20:6443 --token lixsl8.v1auqmf91ty0xl0k \
--discovery-token-ca-cert-hash sha256:c3f92a6ed9149ead327342f48a545e7e127a455d5b338129feac85893d918a55 \
--ignore-preflight-errors=all
如果添加节点失败,或是想重新添加,可以使用命令
kubeadm reset
注:不要在轻易 master 上使用,它会删除所有 kubeadm 配置
这时在节点上就可以使用命令查看添加的节点信息了
[root@k8s-master ~]# kubectl get nodes
NAME STATUS ROLES AGE VERSION
k8s-master NotReady master 45m v1.16.0
k8s-node1 NotReady <none> 26s v1.16.0
k8s-node2 NotReady <none> 12s v1.16.0
但节点的状态就是 NotReady
,还需要一些操作
安装 flanneld
在 master 上操作,拷贝配置,令 kubectl 可用
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
下载 flannel 配置文件
wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
因为 kube-flannel.yml 文件中使用的镜像为 quay.io 的,国内无法拉取,所以同样的先从国内源上下载,再修改 tag,脚本如下
# vim flanneld.sh
#!/bin/bash
set -e
FLANNEL_VERSION=v0.11.0
# 在这里修改源
QUAY_URL=quay.io/coreos
QINIU_URL=quay-mirror.qiniu.com/coreos
images=(flannel:${FLANNEL_VERSION}-amd64
flannel:${FLANNEL_VERSION}-arm64
flannel:${FLANNEL_VERSION}-arm
flannel:${FLANNEL_VERSION}-ppc64le
flannel:${FLANNEL_VERSION}-s390x)
for imageName in ${images[@]} ; do
docker pull $QINIU_URL/$imageName
docker tag $QINIU_URL/$imageName $QUAY_URL/$imageName
docker rmi $QINIU_URL/$imageName
done
运行脚本,这个脚本需要在每个节点上执行
sh flanneld.sh
安装 flanneld
kubectl apply -f kube-flanneld.yaml
flanneld 默认安装在 kube-system Namespace 中,使用以下命令查看:
# kubectl -n kube-system get pods
NAME READY STATUS RESTARTS AGE
coredns-5644d7b6d9-h9bxt 0/1 Pending 0 57m
coredns-5644d7b6d9-pkhls 0/1 Pending 0 57m
etcd-k8s-master 1/1 Running 0 57m
kube-apiserver-k8s-master 1/1 Running 0 57m
kube-controller-manager-k8s-master 1/1 Running 0 57m
kube-flannel-ds-amd64-c4hnf 1/1 Running 1 38s
kube-flannel-ds-amd64-djzmx 1/1 Running 0 38s
kube-flannel-ds-amd64-mdg8b 1/1 Running 1 38s
kube-flannel-ds-amd64-tjxql 0/1 Terminating 0 5m34s
kube-proxy-4n5dr 0/1 ErrImagePull 0 13m
kube-proxy-dc68d 1/1 Running 0 57m
kube-proxy-zplgt 0/1 ErrImagePull 0 13m
kube-scheduler-k8s-master 1/1 Running 0 57m
出现错误,原因是两个工作节点不能拉取 pause 和 kube-proxy 镜像,可以直接从 master 上打包,在 node 上使用
## master 上执行
docker save -o pause.tar k8s.gcr.io/pause:3.1
docker save -o kube-proxy.tar k8s.gcr.io/kube-proxy
## node 上执行
docker load -i pause.tar
docker load -i kube-proxy.tar
重新安装 flanneld
kubectl delete -f kube-flannel.yml
kubectl create -f kube-flannel.yml
修改 kubelet
使用 kubeadm 添加 node 后,节点一直处于 NotReady
状态,报错信息为:
runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized Addresses:
解决方式是修改 /var/lib/kubelet/kubeadm-flags.env 文件,删除参数 --network-plugin=cni
cat << EOF > /var/lib/kubelet/kubeadm-flags.env
KUBELET_KUBEADM_ARGS="--cgroup-driver=systemd --pod-infra-container-image=k8s.gcr.io/pause:3.1"
EOF
systemctl restart kubelet
[root@k8s-master ~]# kubectl get nodes
NAME STATUS ROLES AGE VERSION
k8s-master Ready master 79m v1.16.0
k8s-node1 Ready <none> 34m v1.16.0
k8s-node2 Ready <none> 34m v1.16.0
错误解决
关于错误cni config uninitialized Addresses
,这里之前是直接删除参数--network-plugin=cni
,但这样只能让节点状态修改为 ready,但是在 Pod 之间网络依然不可用。
正确的解决方法:修改 kube-flannel.yaml,在 111 行添加参数cniVersion
:
vim kube-flanneld.yaml
{
"name": "cbr0",
"cniVersion": "0.3.1",
....
安装 flannel
## 如果之前安装了,先删除
## kubectl delete -f kube-flannel.yaml
kubectl apply -f kube-flannel.yaml