共计 4739 个字符,预计需要花费 12 分钟才能阅读完成。
1、硬件环境筹备
- 筹备三台虚构服务器(可采纳 VMware Workstation 或者 VirtualBox)
操作系统要求 CentOS 版本 7.5~7.8,倡议 7.8http://mirrors.163.com/centos/7.8.2003/
- 购买三台云云主机(CentOS 版本 7.6)
- 配置要求:
不低于 2U/4G、硬盘不小于 40G
IP 地址可自行布局、可能连贯互联网 - 留神:虚拟机倡议采纳桥接或者 NAT 模式(配置 DNS)
2、零碎初始化
- 敞开 Selinux
[root@k8s-m ~]# sed -i 's/enforcing/disabled/' /etc/selinux/config
[root@k8s-m ~]# setenforce 0
- 敞开替换分区
[root@k8s-m ~]# swapoff -a
[root@k8s-m ~]# vim /etc/fstab
- 清空 Iptables 规定、敞开防火墙并设置开机不启动
[root@k8s-m ~]# iptables -F
[root@k8s-m ~]# iptables -Z
[root@k8s-m ~]# iptables -X
[root@k8s-m ~]# iptables-save
[root@k8s-m ~]# systemctl stop firewalld
[root@k8s-m ~]# systemctl disable firewalld
- 桥接的 IPv4 流量传递到 iptables 的链
[root@k8s-m ~]# cat > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
[root@k8s-m ~]# sysctl --system
- 配置主机名及本地 DNS 解析
[root@k8s-m ~]# hostnamectl set-hostname k8s-master
[root@k8s-m ~]# cat >> /etc/hosts << EOF
192.168.X.61 k8s-master
192.168.X.62 k8s-node1
192.168.X.63 k8s-node2
EOF
- 配置工夫同步
[root@k8s-m ~]# yum install ntpdate -y
[root@k8s-m ~]# ntpdate time.windows.com
3、k8s 组件的装置
- 在所有节点(master、node)装置
(1)下载 Docker 的 REPO 文件并装置、设置、校验
~]# wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo
~]# yum -y install docker-ce-18.06.1.ce-3.el7
~]# systemctl enable docker && systemctl start docker
~]# docker --version
(2)增加阿里云的镜像文件实现减速(需重启 Docker 服务)
~]# cat > /etc/docker/daemon.json << EOF
{"registry-mirrors": ["https://b9pmyelo.mirror.aliyuncs.com"]
}
EOF
~]# systemctl restart docker
(3)下载 kubernetes 的 REPO 文件并装置组件
~]# cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
(4)装置 k8s 组件
~]# yum install -y kubelet-1.18.0 kubeadm-1.18.0 kubectl-1.18.0
~]# systemctl enable kubelet
4、部署 Master
- 初始化 Master 节点
[root@k8s-m ~] kubeadm init \
--apiserver-advertise-address=192.168.X.61 \
--image-repository registry.aliyuncs.com/google_containers \
--kubernetes-version v1.18.0 \
--service-cidr=10.96.0.0/12 \
--pod-network-cidr=10.244.0.0/16 \
--ignore-preflight-errors=all
- 应用 kubectl 工具
[root@k8s-m ~] mkdir -p $HOME/.kube
[root@k8s-m ~] sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
[root@k8s-m ~] sudo chown $(id -u):$(id -g) $HOME/.kube/config
[root@k8s-m ~] kubectl get nodes
5、退出 Node 节点
[root@k8s-node ~] kubeadm join 192.168.X.61:6443 --token esce21.q6hetwm8si29qxwn \
--discovery-token-ca-cert-hash sha256:00603a05805807501d7181c3d60b478788408cfe6cedefedb1f97569708be9c5
默认 token 有效期为 24 小时,当过期之后,该 token 就不可用了。这时就须要从新创立 token,操作如下
[root@k8s-m ~] kubeadm token create
[root@k8s-m ~] kubeadm token list
[root@k8s-m ~] openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | openssl dgst -sha256 -hex | sed 's/^.* //'
63bca849e0e01691ae14eab449570284f0c3ddeea590f8da988c07fe2729e924
[root@k8s-m ~] kubeadm join 192.168.31.61:6443 --token nuja6n.o3jrhsffiqs9swnu --discovery-token-ca-cert-hash sha256:63bca849e0e01691ae14eab449570284f0c3ddeea590f8da988c07fe2729e924
或者用以下命令
kubeadm token create --print-join-command
6、部署网络
留神:只须要部署上面其中一个,举荐 Calico
- Calico
Calico 是一个纯三层的数据中心网络计划,Calico 反对宽泛的平台,包含 Kubernetes、OpenStack 等。Calico 在每一个计算节点利用 Linux Kernel 实现了一个高效的虚构路由器(vRouter)来负责数据转发,而每个 vRouter 通过 BGP 协定负责把本人上运行的 workload 的路由信息向整个 Calico 网络内流传。此外,Calico 我的项目还实现了 Kubernetes 网络策略,提供 ACL 性能。
wget https://docs.projectcalico.org/manifests/calico.yaml
下载完后还须要批改外面配置项:
- 定义 Pod 网络(CALICO_IPV4POOL_CIDR),与后面 pod CIDR 配置一样
- 抉择工作模式(CALICO_IPV4POOL_IPIP),反对 BGP(Never)、IPIP(Always)、CrossSubnet(开启 BGP 并反对跨子网)
批改完后利用清单:
[root@k8s-m ~] kubectl apply -f calico.yaml
[root@k8s-m ~] kubectl get pods -n kube-system
- Flannel
Flannel 是 CoreOS 保护的一个网络组件,Flannel 为每个 Pod 提供全局惟一的 IP,Flannel 应用 ETCD 来存储 Pod 子网与 Node IP 之间的关系。flanneld 守护过程在每台主机上运行,并负责保护 ETCD 信息和路由数据包。
[root@k8s-m ~] wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
[root@k8s-m ~] sed -i -r "s#quay.io/coreos/flannel:.*-amd64#81286980/flannel:v0.11.0-amd64#g" kube-flannel.yml
7、测试集群
- 测试利用部署
- 测试网络
- 验证 DNS 解析
长期启动一个 Pod 验证
[root@k8s-m ~] kubectl run dns-test -it --rm --image=busybox:1.28.4 -- sh
8、部署 Dashboard
[root@k8s-m ~] wget https://raw.githubusercontent.com/kubernetes/dashboard/v2.0.3/aio/deploy/recommended.yaml
默认 Dashboard 只能集群外部拜访,批改 Service 为 NodePort 类型,裸露到内部:
kind: Service
apiVersion: v1
metadata:
labels:
k8s-app: kubernetes-dashboard
name: kubernetes-dashboard
namespace: kubernetes-dashboard
spec:
ports:
- port: 443
targetPort: 8443
nodePort: 30001
selector:
k8s-app: kubernetes-dashboard
type: NodePort
拜访地址:https://NodeIP:30001
创立 service account 并绑定默认 cluster-admin 管理员集群角色:
[root@k8s-m ~] kubectl create serviceaccount dashboard-admin -n kube-system
[root@k8s-m ~] kubectl create clusterrolebinding dashboard-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-admin
[root@k8s-m ~] kubectl describe secrets -n kube-system $(kubectl -n kube-system get secret | awk '/dashboard-admin/{print $1}')
应用输入的 token 登录 Dashboard