关于docker:模块二-Kubernetes集群搭建及命令行工具使用

4次阅读

共计 4739 个字符,预计需要花费 12 分钟才能阅读完成。

1、硬件环境筹备

  • 筹备三台虚构服务器(可采纳 VMware Workstation 或者 VirtualBox)
    操作系统要求 CentOS 版本 7.5~7.8,倡议 7.8
    http://mirrors.163.com/centos/7.8.2003/
  • 购买三台云云主机(CentOS 版本 7.6)
  • 配置要求:
    不低于 2U/4G、硬盘不小于 40G
    IP 地址可自行布局、可能连贯互联网
  • 留神:虚拟机倡议采纳桥接或者 NAT 模式(配置 DNS)

2、零碎初始化

  • 敞开 Selinux
[root@k8s-m ~]# sed -i 's/enforcing/disabled/' /etc/selinux/config
[root@k8s-m ~]# setenforce 0
  • 敞开替换分区
[root@k8s-m ~]# swapoff -a
[root@k8s-m ~]# vim /etc/fstab
  • 清空 Iptables 规定、敞开防火墙并设置开机不启动
[root@k8s-m ~]# iptables -F
[root@k8s-m ~]# iptables -Z
[root@k8s-m ~]# iptables -X
[root@k8s-m ~]# iptables-save
[root@k8s-m ~]# systemctl stop firewalld
[root@k8s-m ~]# systemctl disable firewalld
  • 桥接的 IPv4 流量传递到 iptables 的链
[root@k8s-m ~]# cat > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
[root@k8s-m ~]# sysctl --system
  • 配置主机名及本地 DNS 解析
[root@k8s-m ~]# hostnamectl set-hostname k8s-master
[root@k8s-m ~]# cat >> /etc/hosts << EOF
192.168.X.61 k8s-master
192.168.X.62 k8s-node1
192.168.X.63 k8s-node2
EOF
  • 配置工夫同步
[root@k8s-m ~]# yum install ntpdate -y
[root@k8s-m ~]# ntpdate time.windows.com

3、k8s 组件的装置

  • 在所有节点(master、node)装置

(1)下载 Docker 的 REPO 文件并装置、设置、校验

~]# wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo
~]# yum -y install docker-ce-18.06.1.ce-3.el7
~]# systemctl enable docker && systemctl start docker
~]# docker --version

(2)增加阿里云的镜像文件实现减速(需重启 Docker 服务)

~]# cat > /etc/docker/daemon.json << EOF
{"registry-mirrors": ["https://b9pmyelo.mirror.aliyuncs.com"]
}
EOF
~]# systemctl restart docker

(3)下载 kubernetes 的 REPO 文件并装置组件

~]# cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

(4)装置 k8s 组件

~]# yum install -y kubelet-1.18.0 kubeadm-1.18.0 kubectl-1.18.0
~]# systemctl enable kubelet

4、部署 Master

  • 初始化 Master 节点
[root@k8s-m ~] kubeadm init \
  --apiserver-advertise-address=192.168.X.61 \
  --image-repository registry.aliyuncs.com/google_containers \
  --kubernetes-version v1.18.0 \
  --service-cidr=10.96.0.0/12 \
  --pod-network-cidr=10.244.0.0/16 \
  --ignore-preflight-errors=all
  • 应用 kubectl 工具
[root@k8s-m ~] mkdir -p $HOME/.kube
[root@k8s-m ~] sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
[root@k8s-m ~] sudo chown $(id -u):$(id -g) $HOME/.kube/config
[root@k8s-m ~] kubectl get nodes

5、退出 Node 节点

[root@k8s-node ~] kubeadm join 192.168.X.61:6443 --token esce21.q6hetwm8si29qxwn \
    --discovery-token-ca-cert-hash sha256:00603a05805807501d7181c3d60b478788408cfe6cedefedb1f97569708be9c5

默认 token 有效期为 24 小时,当过期之后,该 token 就不可用了。这时就须要从新创立 token,操作如下

[root@k8s-m ~] kubeadm token create
[root@k8s-m ~] kubeadm token list
[root@k8s-m ~] openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | openssl dgst -sha256 -hex | sed 's/^.* //'
63bca849e0e01691ae14eab449570284f0c3ddeea590f8da988c07fe2729e924

[root@k8s-m ~] kubeadm join 192.168.31.61:6443 --token nuja6n.o3jrhsffiqs9swnu --discovery-token-ca-cert-hash sha256:63bca849e0e01691ae14eab449570284f0c3ddeea590f8da988c07fe2729e924

或者用以下命令

kubeadm token create --print-join-command

6、部署网络

留神:只须要部署上面其中一个,举荐 Calico

  • Calico

Calico 是一个纯三层的数据中心网络计划,Calico 反对宽泛的平台,包含 Kubernetes、OpenStack 等。Calico 在每一个计算节点利用 Linux Kernel 实现了一个高效的虚构路由器(vRouter)来负责数据转发,而每个 vRouter 通过 BGP 协定负责把本人上运行的 workload 的路由信息向整个 Calico 网络内流传。此外,Calico 我的项目还实现了 Kubernetes 网络策略,提供 ACL 性能。

wget https://docs.projectcalico.org/manifests/calico.yaml

下载完后还须要批改外面配置项:

  • 定义 Pod 网络(CALICO_IPV4POOL_CIDR),与后面 pod CIDR 配置一样
  • 抉择工作模式(CALICO_IPV4POOL_IPIP),反对 BGP(Never)、IPIP(Always)、CrossSubnet(开启 BGP 并反对跨子网)

批改完后利用清单:

[root@k8s-m ~] kubectl apply -f calico.yaml
[root@k8s-m ~] kubectl get pods -n kube-system
  • Flannel

Flannel 是 CoreOS 保护的一个网络组件,Flannel 为每个 Pod 提供全局惟一的 IP,Flannel 应用 ETCD 来存储 Pod 子网与 Node IP 之间的关系。flanneld 守护过程在每台主机上运行,并负责保护 ETCD 信息和路由数据包。

[root@k8s-m ~] wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
[root@k8s-m ~] sed -i -r "s#quay.io/coreos/flannel:.*-amd64#81286980/flannel:v0.11.0-amd64#g" kube-flannel.yml

7、测试集群

  • 测试利用部署
  • 测试网络
  • 验证 DNS 解析
 长期启动一个 Pod 验证
[root@k8s-m ~] kubectl run dns-test -it --rm --image=busybox:1.28.4 -- sh

8、部署 Dashboard

[root@k8s-m ~] wget https://raw.githubusercontent.com/kubernetes/dashboard/v2.0.3/aio/deploy/recommended.yaml

默认 Dashboard 只能集群外部拜访,批改 Service 为 NodePort 类型,裸露到内部:

kind: Service
apiVersion: v1
metadata:
  labels:
    k8s-app: kubernetes-dashboard
  name: kubernetes-dashboard
  namespace: kubernetes-dashboard
spec:
  ports:
    - port: 443
      targetPort: 8443
      nodePort: 30001
  selector:
    k8s-app: kubernetes-dashboard
  type: NodePort

拜访地址:https://NodeIP:30001

创立 service account 并绑定默认 cluster-admin 管理员集群角色:

[root@k8s-m ~] kubectl create serviceaccount dashboard-admin -n kube-system
[root@k8s-m ~] kubectl create clusterrolebinding dashboard-admin --clusterrole=cluster-admin --serviceaccount=kube-system:dashboard-admin
[root@k8s-m ~] kubectl describe secrets -n kube-system $(kubectl -n kube-system get secret | awk '/dashboard-admin/{print $1}')

应用输入的 token 登录 Dashboard

正文完
 0