乐趣区

关于云计算:在-Debian-12-上安装-KubeSphere-实战入门

老 Z,运维架构师,云原生爱好者,目前专一于云原生运维,云原生畛域技术栈波及 Kubernetes、KubeSphere、DevOps、OpenStack、Ansible 等。

前言

知识点

  • 定级:入门级
  • KubeKey 装置部署 KubeSphere 和 Kubernetes
  • Debian 操作系统的根本配置
  • Kubernetes 罕用工作负载的创立
  • KubeSphere 控制台操作入门

演示服务器配置

主机名 IP CPU 内存 系统盘 数据盘 用处
ks-master-0 192.168.9.91 4 16 40 200 KubeSphere/k8s-master/k8s-worker
ks-master-1 192.168.9.92 4 16 40 200 KubeSphere/k8s-master/k8s-worker
ks-master-2 192.168.9.93 4 16 40 200 KubeSphere/k8s-master/k8s-worker
共计 3 12 48 120 600

演示环境波及软件版本信息

  • 操作系统:Debian 12
  • KubeSphere:3.3.2
  • Kubernetes:v1.26.0
  • KubeKey: v3.0.7

简介

Debian 已经的开源 Linux 发行版的王者,惟一的电信级开源操作系统,我已经在 IDC 工作时,所有的外围业务、自建防火墙都运行在 Debian 之上,稳如磐石。

基于多种起因 Debian 的用户一直缩小,尤其是在国内,曾经很少有人谈及 Debian 了。在当今寻求 CentOS 替代品的背景下,Debian 也是一种抉择。

本文基于我集体对 Debian 的情怀,写了一篇测试验证文档,仅仅实用于学习、测试环境。生产环境须要进行充沛的调研、测试、验证后再做决定。

以后 Debian 的稳定版版本号是 12,开发代号为 bookworm,公布于 2023 年 06 月 10 日。生产环境应用,能够应用 Debian 10,开发代号 Buster,当初的 LTS 发行版本。

本文介绍了如何在 Debian 12 服务器上部署 KubeSphere 和 Kubernetes 集群。咱们将应用 KubeSphere 开发的 KubeKey 工具实现自动化部署,在三台服务器上实现高可用模式最小化部署 Kubernetes 集群和 KubeSphere。咱们将提供具体的部署阐明,以便读者轻松地实现部署过程。

操作系统根底配置

请留神,以下操作无非凡阐明时需在所有 Debian 服务器上执行。本文只选取其中一台服务器作为演示,并假设其余服务器都已依照雷同的形式进行配置和设置。

创立用户

在装置 KubeSphere 和 Kubernetes 之前,须要创立一个普通用户,该用户能够是装置 Debian 零碎时默认创立的初始用户 debian,也能够是新创建的用户。在本文中,咱们将应用新建用户 kube 作为示例。

  • 创立用户并设置明码

通过执行以下命令,创立一个名为 kube 的新用户,并设置该用户的明码。在提醒输出明码时,请输出所需的明码并进行确认。

sudo useradd -m -s /bin/bash kube
sudo passwd kube
  • 配置用户免明码执行命令

为了装置和部署 KubeSphere 和 Kubernetes,须要将 kube 用户配置为无需明码即可应用 sudo 切换到 root 用户执行系统命令。

要让 kube 用户无需明码即可应用 sudo 命令,请执行以下命令。

cat <<EOF | sudo tee /etc/sudoers.d/kube
Defaults:kube !fqdn
Defaults:kube !requiretty
kube ALL=(ALL) NOPASSWD: ALL
EOF

配置主机名

sudo hostnamectl hostname ks-master-0

配置 hosts 文件

编辑 /etc/hosts 文件,将布局的服务器 IP 和主机名增加到文件中。

192.168.9.91    ks-master-0
192.168.9.92    ks-master-1
192.168.9.93    ks-master-2

配置基于 SSH 密钥的身份验证

KubeKey 反对在自动化部署 KubeSphere 和 Kubernetes 服务时,利用明码和密钥作为近程服务器的连贯验证形式。本文会演示同时应用明码和密钥的配置形式,因而,须要为部署用户 kube 配置免明码 SSH 身份验证。

本大节为可选配置项,如果你应用纯明码的形式作为服务器近程连贯认证形式,能够疏忽本节内容。

本文将 master-0 节点作为部署节点,上面的操作须要在 master-0 节点操作。

以 kube 用户登陆零碎,而后应用 ssh-keygen 命令生成一个新的 SSH 密钥对,命令实现后,SSH 公钥和私钥将存储在 /home/kube/.ssh 目录中。

su - kube
ssh-keygen -t ed25519

命令执行成果如下:

debian@ks-master-0:~$ su - kube
Password:
kube@ks-master-0:~$ ssh-keygen -t ed25519
Generating public/private ed25519 key pair.
Enter file in which to save the key (/home/kube/.ssh/id_ed25519):
Created directory '/home/kube/.ssh'.
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /home/kube/.ssh/id_ed25519
Your public key has been saved in /home/kube/.ssh/id_ed25519.pub
The key fingerprint is:
SHA256:mMmyz1xem5VbgMgSydTrr/P3Wqp3c3BcnoOJ12qSdQM kube@ks-master-0
The key's randomart image is:
+--[ED25519 256]--+
|      ..         |
|     o ..        |
|      +  .       |
|     . *.. . E  .|
|    . *.S . o =oo|
|     o ..  . B.*+|
|    .   ... * =oo|
|     + o...*oBo .|
|      + o+=+*+.o |
+----[SHA256]-----+

接下来,输出以下命令将 SSH 公钥从 master-0 节点发送到其余节点。命令执行时输出 yes,以承受服务器的 SSH 指纹,而后在呈现提醒时输出 kube 用户的明码。

ssh-copy-id kube@ks-master-0

上面是密钥复制时,正确的输入后果:

kube@ks-master-0:~$ ssh-copy-id kube@ks-master-0
/usr/bin/ssh-copy-id: INFO: Source of key(s) to be installed: "/home/kube/.ssh/id_ed25519.pub"
The authenticity of host 'ks-master-0 (192.168.9.91)' can't be established.
ED25519 key fingerprint is SHA256:1hcstZu/Ml3ghElXuZLRj+lF6EzlWXV6EaRr3/C1L/Y.
This key is not known by any other names.
Are you sure you want to continue connecting (yes/no/[fingerprint])? yes
/usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed
/usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys
kube@ks-master-0's password:

Number of key(s) added: 1

Now try logging into the machine, with:   "ssh'kube@ks-master-0'"
and check to make sure that only the key(s) you wanted were added.

增加并上传 SSH 公钥后,您当初能够执行上面的命令验证,通过 kube 用户连贯到所有服务器,无需明码验证。

kube@ks-master-0:~$ ssh kube@ks-master-1
# 登陆输入后果 略

装置零碎依赖

在所有节点上,以 kube 用户登陆零碎(非必须,其余零碎用户也可),执行上面的命令为 Kubernetes 装置零碎根本依赖包。

sudo apt-get update
sudo apt-get install curl socat conntrack ebtables ipset ipvsadm

配置服务器时区

配置服务器时区为 Asia/Shanghai

sudo timedatectl set-timezone Asia/Shanghai

装置 chrony 配置工夫同步

装置 chrony 作为工夫同步软件:

sudo apt-get install chrony

批改配置文件 /etc/chrony/chrony.conf,批改 ntp 服务器配置:

sudo vi /etc/chrony/chrony.conf
# 删除所有的 pool 配置
pool 2.debian.pool.ntp.org iburst

# 减少国内的 ntp 服务器,或是指定其余罕用的工夫服务器
server ntp.api.bz iburst

重启 chrony 服务:

sudo systemctl restart chrony

验证 chrony 同步状态:

# 执行查看命令
sudo chronyc sourcestats -v

# 失常的输入后果如下
kube@ks-master-0:~$ sudo chronyc sourcestats -v
                             .- Number of sample points in measurement set.
                            /    .- Number of residual runs with same sign.
                           |    /    .- Length of measurement set (time).
                           |   |    /      .- Est. clock freq error (ppm).
                           |   |   |      /           .- Est. error in freq.
                           |   |   |     |           /         .- Est. offset.
                           |   |   |     |          |          |   On the -.
                           |   |   |     |          |          |   samples. \
                           |   |   |     |          |          |             |
Name/IP Address            NP  NR  Span  Frequency  Freq Skew  Offset  Std Dev
==============================================================================
ec2-3-64-163-50.eu-centr>   0   0     0     +0.000   2000.000     +0ns  4000ms

装置部署 KubeSphere 和 Kubernetes

下载 KubeKey

本文将 master-0 节点作为部署节点,把 KubeKey (下文简称 kk) 最新版 (3.0.7) 二进制文件下载到该服务器。具体 kk 版本号能够在 kk 发行页面查看。

  • 下载最新版的 KubeKey
cd ~
mkdir kubekey
cd kubekey/

# 抉择中文区下载(拜访 github 受限时应用)
export KKZONE=cn
curl -sfL https://get-kk.kubesphere.io | sh -

# 也能够应用上面的命令指定具体版本
curl -sfL https://get-kk.kubesphere.io | VERSION=v3.0.7 sh -

# 正确的执行成果如下
kube@ks-master-0:~$ cd ~
kube@ks-master-0:~$ mkdir kubekey
kube@ks-master-0:~$ cd kubekey/
kube@ks-master-0:~/kubekey$ export KKZONE=cn
kube@ks-master-0:~/kubekey$ curl -sfL https://get-kk.kubesphere.io | sh -

Downloading kubekey v3.0.7 from https://kubernetes.pek3b.qingstor.com/kubekey/releases/download/v3.0.7/kubekey-v3.0.7-linux-amd64.tar.gz ...


Kubekey v3.0.7 Download Complete!

kube@ks-master-0:~/kubekey$ ls -l
总计 111988
-rwxr-xr-x 1 kube kube 78901793  1 月 18 日 09:59 kk
-rw-r--r-- 1 kube kube 35769576  6 月 16 日 10:07 kubekey-v3.0.7-linux-amd64.tar.gz
  • 查看 KubeKey 反对的 Kubernetes 版本列表
./kk version --show-supported-k8s

# 输入如下
kube@ks-master-0:~/kubekey$ ./kk version --show-supported-k8s
v1.19.0
v1.19.8
v1.19.9
v1.19.15
v1.20.4
v1.20.6
v1.20.10
v1.21.0
v1.21.1
v1.21.2
v1.21.3
v1.21.4
v1.21.5
v1.21.6
v1.21.7
v1.21.8
v1.21.9
v1.21.10
v1.21.11
v1.21.12
v1.21.13
v1.21.14
v1.22.0
v1.22.1
v1.22.2
v1.22.3
v1.22.4
v1.22.5
v1.22.6
v1.22.7
v1.22.8
v1.22.9
v1.22.10
v1.22.11
v1.22.12
v1.22.13
v1.22.14
v1.22.15
v1.22.16
v1.22.17
v1.23.0
v1.23.1
v1.23.2
v1.23.3
v1.23.4
v1.23.5
v1.23.6
v1.23.7
v1.23.8
v1.23.9
v1.23.10
v1.23.11
v1.23.12
v1.23.13
v1.23.14
v1.23.15
v1.24.0
v1.24.1
v1.24.2
v1.24.3
v1.24.4
v1.24.5
v1.24.6
v1.24.7
v1.24.8
v1.24.9
v1.25.0
v1.25.1
v1.25.2
v1.25.3
v1.25.4
v1.25.5
v1.26.0

创立 Kubernetes 和 KubeSphere 部署配置文件

创立集群配置文件,本示例中,抉择 KubeSphere v3.3.2 和 Kubernetes v1.26.0,同时,指定配置文件名称为 kubesphere-v3.3.2.yaml,如果不指定,默认的文件名为 config-sample.yaml

./kk create config -f kubesphere-v3.3.2.yaml --with-kubernetes v1.26.0 --with-kubesphere v3.3.2

命令执行胜利后,在当前目录会生成文件名为 kubesphere-v3.3.2.yaml 的配置文件。

kube@ks-master-0:~/kubekey$ ./kk create config -f kubesphere-v3.3.2.yaml --with-kubernetes v1.26.0 --with-kubesphere v3.3.2
Generate KubeKey config file successfully
kube@ks-master-0:~/kubekey$ ls
kk  kubekey-v3.0.7-linux-amd64.tar.gz  kubesphere-v3.3.2.yaml

本文示例采纳 3 个节点作为 control-plane 节点同时复用为 worker 节点。

编辑配置文件 kubesphere-v3.3.2.yaml,批改 hosts 和 roleGroups 等信息,批改阐明如下。

  • hosts 指定节点的 IP、ssh 用户、ssh 明码、ss h 密钥,示例演示了同时应用明码和密钥的配置办法
  • roleGroups 指定 ks-master-0、ks-master-1、ks-master-2 作为 etcd、control-plane、worker 节点
  • internalLoadbalancer 启用内置的 HAProxy 负载均衡器

批改后的示例如下:

apiVersion: kubekey.kubesphere.io/v1alpha2
kind: Cluster
metadata:
  name: sample
spec:
  hosts:
  - {name: ks-master-0, address: 192.168.9.91, internalAddress: 192.168.9.91, user: kube, password: "Qcloud@123"}
  - {name: ks-master-1, address: 192.168.9.92, internalAddress: 192.168.9.92, user: kube, privateKeyPath: "~/.ssh/id_ed25519"}
  - {name: ks-master-2, address: 192.168.9.93, internalAddress: 192.168.9.93, user: kube, privateKeyPath: "~/.ssh/id_ed25519"}
  roleGroups:
    etcd:
    - ks-master-0
    - ks-master-1
    - ks-master-2
    control-plane:
    - ks-master-0
    - ks-master-1
    - ks-master-2
    worker:
    - ks-master-0
    - ks-master-1
    - ks-master-2
  controlPlaneEndpoint:
    ## Internal loadbalancer for apiservers
    internalLoadbalancer: haproxy

    domain: lb.kubesphere.local
    address: ""
    port: 6443
  kubernetes:
    version: v1.26.0
    clusterName: cluster.local
    autoRenewCerts: true
    containerManager: containerd
  etcd:
    type: kubekey
  network:
    plugin: calico
    kubePodsCIDR: 10.233.64.0/18
    kubeServiceCIDR: 10.233.0.0/18
    ## multus support. https://github.com/k8snetworkplumbingwg/multus-cni
    multusCNI:
      enabled: false
  registry:
    privateRegistry: ""namespaceOverride:""
    registryMirrors: []
    insecureRegistries: []
  addons: []

部署 KubeSphere 和 Kubernetes

接下来咱们执行上面的命令,应用下面生成的配置文件部署 KubeSphere 和 Kubernetes。

./kk create cluster -f kubesphere-v3.3.2.yaml

下面的命令执行后,首先 kk 会查看部署 Kubernetes 的依赖及其他具体要求。查看合格后,零碎将提醒您确认装置。输出 yes 并按 ENTER 持续部署。

kube@ks-master-0:~/kubekey$ ./kk create cluster -f kubesphere-v3.3.2.yaml


 _   __      _          _   __
| | / /     | |        | | / /
| |/ / _   _| |__   ___| |/ /  ___ _   _
|    \| | | | '_ \ / _ \    \ / _ \ | | |
| |\  \ |_| | |_) |  __/ |\  \  __/ |_| |
\_| \_/\__,_|_.__/ \___\_| \_/\___|\__, |
                                    __/ |
                                   |___/

14:01:18 CST [GreetingsModule] Greetings
14:01:19 CST message: [ks-master-2]
Greetings, KubeKey!
14:01:19 CST message: [ks-master-0]
Greetings, KubeKey!
14:01:20 CST message: [ks-master-1]
Greetings, KubeKey!
14:01:20 CST success: [ks-master-2]
14:01:20 CST success: [ks-master-0]
14:01:20 CST success: [ks-master-1]
14:01:20 CST [NodePreCheckModule] A pre-check on nodes
14:01:20 CST success: [ks-master-0]
14:01:20 CST success: [ks-master-1]
14:01:20 CST success: [ks-master-2]
14:01:20 CST [ConfirmModule] Display confirmation form
+-------------+------+------+---------+----------+-------+-------+---------+-----------+--------+--------+------------+------------+-------------+------------------+--------------+
| name        | sudo | curl | openssl | ebtables | socat | ipset | ipvsadm | conntrack | chrony | docker | containerd | nfs client | ceph client | glusterfs client | time         |
+-------------+------+------+---------+----------+-------+-------+---------+-----------+--------+--------+------------+------------+-------------+------------------+--------------+
| ks-master-0 | y    | y    | y       | y        | y     | y     | y       | y         | y      |        | y          |            |             |                  | CST 14:01:20 |
| ks-master-1 | y    | y    | y       | y        | y     | y     | y       | y         | y      |        | y          |            |             |                  | CST 14:01:20 |
| ks-master-2 | y    | y    | y       | y        | y     | y     | y       | y         | y      |        | y          |            |             |                  | CST 14:01:20 |
+-------------+------+------+---------+----------+-------+-------+---------+-----------+--------+--------+------------+------------+-------------+------------------+--------------+

This is a simple check of your environment.
Before installation, ensure that your machines meet all requirements specified at
https://github.com/kubesphere/kubekey#requirements-and-recommendations

Continue this installation? [yes/no]:

留神:上文命令输入中有一点很诡异,containerd 的查看后果竟然是 y,我在零碎中找了一百遍也没发现跟 containerd 无关的任何文件,临时搁置前面看看有没有影响再说。

部署实现须要大概 10-30 分钟左右,具体看网速和机器配置。

部署实现后,您应该会在终端上看到相似于上面的输入。提醒部署实现的同时,输入中还会显示用户登陆 KubeSphere 的默认管理员用户和明码。

clusterconfiguration.installer.kubesphere.io/ks-installer created
14:14:52 CST skipped: [ks-master-2]
14:14:52 CST skipped: [ks-master-1]
14:14:52 CST success: [ks-master-0]
#####################################################
###              Welcome to KubeSphere!           ###
#####################################################

Console: http://192.168.9.91:30880
Account: admin
Password: P@88w0rd
NOTES:1. After you log into the console, please check the
     monitoring status of service components in
     "Cluster Management". If any service is not
     ready, please wait patiently until all components
     are up and running.
  2. Please change the default password after login.

#####################################################
https://kubesphere.io             2023-06-16 14:27:39
#####################################################
14:27:42 CST skipped: [ks-master-2]
14:27:42 CST skipped: [ks-master-1]
14:27:42 CST success: [ks-master-0]
14:27:42 CST Pipeline[CreateClusterPipeline] execute successfully
Installation is complete.

Please check the result using the command:

    kubectl logs -n kubesphere-system $(kubectl get pod -n kubesphere-system -l 'app in (ks-install, ks-installer)' -o jsonpath='{.items[0].metadata.name}') -f

部署验证

  1. 验证 KubeSphere 治理控制台

咱们关上浏览器拜访 master-0 节点的 Ip 地址和端口 “30880”,能够看到 KubeSphere 治理控制台的登录页面。

输出默认用户 admin 和默认明码 P@88w0rd,而后点击「登录」。

登录后,零碎会要求您更改 KubeSphere 默认用户 admin 的默认明码,输出新的明码并点击「提交」。

提交实现后,零碎会跳转到 KubeSphere admin 用户工作台页面,该页面显示了以后 KubeSphere 版本为 v3.3.2,可用的 Kubernetes 集群数量为 1。

接下来,单击左上角的「平台治理」菜单,抉择「集群治理」。

进入集群治理界面,在该页面能够查看集群的根本信息,包含集群资源用量、Kubernetes 状态、节点资源用量 Top、零碎组件、工具箱等内容。

单击左侧「节点」菜单,点击「集群节点」能够查看 Kubernetes 集群可用节点的详细信息。

单击左侧「零碎组件」菜单,能够查看已装置组件的详细信息。目前集群采纳的最小化装置,仅蕴含 KubeSphere、Kubernetes、监控三个类别的组件。

  1. 命令行验证集群信息

在 master-0 节点运行 kubectl 命令获取 Kubernetes 集群上的可用节点列表。

kubectl get nodes -o wide

在输入后果中能够看到,以后的 Kubernetes 集群有三个可用节点、节点的外部 IP、节点角色、节点的 Kubernetes 版本号、容器运行时及版本号、操作系统类型及内核版本等信息。

kube@ks-master-0:~/kubekey$ kubectl get nodes -o wide
NAME          STATUS   ROLES                  AGE   VERSION   INTERNAL-IP    EXTERNAL-IP   OS-IMAGE                         KERNEL-VERSION   CONTAINER-RUNTIME
ks-master-0   Ready    control-plane,worker   25m   v1.26.0   192.168.9.91   <none>        Debian GNU/Linux 12 (bookworm)   6.1.0-9-amd64    containerd://1.6.4
ks-master-1   Ready    control-plane,worker   25m   v1.26.0   192.168.9.92   <none>        Debian GNU/Linux 12 (bookworm)   6.1.0-9-amd64    containerd://1.6.4
ks-master-2   Ready    control-plane,worker   25m   v1.26.0   192.168.9.93   <none>        Debian GNU/Linux 12 (bookworm)   6.1.0-9-amd64    containerd://1.6.4

输出以下命令获取在 Kubernetes 集群上运行的 Pod 列表:

kubectl get pods --all-namespaces

在输入后果中能够看到,Kubernetes 集群上有多个可用的命名空间 kube-system、kubesphere-control-system、kubesphere-monitoring-system 和 kubesphere-system,所有 pod 都在运行。

kube@ks-master-0:~/kubekey$ kubectl get pods --all-namespaces
NAMESPACE                      NAME                                           READY   STATUS    RESTARTS   AGE
kube-system                    calico-kube-controllers-7f576895dd-fh5sq       1/1     Running   0          25m
kube-system                    calico-node-7j6qd                              1/1     Running   0          25m
kube-system                    calico-node-rkhpz                              1/1     Running   0          25m
kube-system                    calico-node-wpfqj                              1/1     Running   0          25m
kube-system                    coredns-d9d84b5bf-jbzxw                        1/1     Running   0          25m
kube-system                    coredns-d9d84b5bf-s4d9m                        1/1     Running   0          25m
kube-system                    kube-apiserver-ks-master-0                     1/1     Running   0          26m
kube-system                    kube-apiserver-ks-master-1                     1/1     Running   0          25m
kube-system                    kube-apiserver-ks-master-2                     1/1     Running   0          25m
kube-system                    kube-controller-manager-ks-master-0            1/1     Running   0          26m
kube-system                    kube-controller-manager-ks-master-1            1/1     Running   0          25m
kube-system                    kube-controller-manager-ks-master-2            1/1     Running   0          25m
kube-system                    kube-proxy-mfqgj                               1/1     Running   0          25m
kube-system                    kube-proxy-mkwsv                               1/1     Running   0          25m
kube-system                    kube-proxy-tlff8                               1/1     Running   0          25m
kube-system                    kube-scheduler-ks-master-0                     1/1     Running   0          26m
kube-system                    kube-scheduler-ks-master-1                     1/1     Running   0          25m
kube-system                    kube-scheduler-ks-master-2                     1/1     Running   0          25m
kube-system                    nodelocaldns-42x9v                             1/1     Running   0          25m
kube-system                    nodelocaldns-dskst                             1/1     Running   0          25m
kube-system                    nodelocaldns-z4h6t                             1/1     Running   0          25m
kube-system                    openebs-localpv-provisioner-5c7fdd7bd9-khzz2   1/1     Running   0          25m
kube-system                    snapshot-controller-0                          1/1     Running   0          22m
kubesphere-controls-system     default-http-backend-767cdb5fdc-ntspc          1/1     Running   0          19m
kubesphere-controls-system     kubectl-admin-5656cd6dfc-h9wvt                 1/1     Running   0          12m
kubesphere-monitoring-system   kube-state-metrics-5b8c487d5-wd55c             3/3     Running   0          16m
kubesphere-monitoring-system   node-exporter-47b28                            2/2     Running   0          16m
kubesphere-monitoring-system   node-exporter-7rhlk                            2/2     Running   0          16m
kubesphere-monitoring-system   node-exporter-8lvc9                            2/2     Running   0          16m
kubesphere-monitoring-system   prometheus-k8s-0                               2/2     Running   0          15m
kubesphere-monitoring-system   prometheus-k8s-1                               2/2     Running   0          15m
kubesphere-monitoring-system   prometheus-operator-6fb9967754-64lnm           2/2     Running   0          16m
kubesphere-system              ks-apiserver-579fb669c7-xwbkt                  1/1     Running   0          19m
kubesphere-system              ks-console-b5855d9f5-ws488                     1/1     Running   0          19m
kubesphere-system              ks-controller-manager-b677bdb48-7jvph          1/1     Running   0          19m
kubesphere-system              ks-installer-5b5cc7f6c5-dnphc                  1/1     Running   0          25m

至此,咱们曾经部署了具备三个 Debian 服务器节点的最小化的 Kubernetes 集群和 KubeSphere。咱们还通过 KubeSphere 治理控制台和命令行界面查看了集群的状态。

接下来咱们将在 Kubernetes 集群上部署一个简略的 Nginx Web 服务器,测试验证 Kubernetes 和 KubeSphere 失常可用。

部署测试资源

本示例应用命令行工具在 Kubernetes 集群上部署一个 Nginx Web 服务器并利用 KubeSphere 图形化治理控制台查看部署的资源信息。

创立 Nginx Deployment

运行以下命令创立一个部署 Nginx Web 服务器的 Deployment。此示例中,咱们将创立具备两个正本基于 nginx:alpine 镜像的 Pod。

kubectl create deployment nginx --image=nginx:alpine --replicas=2

创立 Nginx Service

创立一个新的 Kubernetes 服务,服务名称 nginx,服务类型 Nodeport,对外的服务端口 80。

kubectl create service nodeport nginx --tcp=80:80

4.3 验证 Nginx Deployment 和 Pod

运行以下命令查看创立的 Deployment 和 Pod 资源。

kubectl get deployment -o wide
kubectl get pods -o wide

查看后果如下:

kube@ks-master-0:~/kubekey$ kubectl get deployment -o wide
NAME    READY   UP-TO-DATE   AVAILABLE   AGE   CONTAINERS   IMAGES         SELECTOR
nginx   2/2     2            2           33m   nginx        nginx:alpine   app=nginx

kube@ks-master-0:~$ kubectl get pods -o wide
root@ks-master-0:~# kubectl get pods -o wide
NAME                     READY   STATUS    RESTARTS   AGE   IP             NODE          NOMINATED NODE   READINESS GATES
nginx-6c557cc74d-89bpf   1/1     Running   0          33m   10.233.103.5   ks-master-1   <none>           <none>
nginx-6c557cc74d-psgsc   1/1     Running   0          33m   10.233.102.7   ks-master-2   <none>           <none>

验证 Nginx Service

运行一下命令查看可用的服务列表,在列表中咱们能够看到 nginx 服务类型 为 Nodeport,并在 Kubernetes 主机上凋谢了 31719 端口。

kubectl get svc -o wide

查看后果如下:

kube@ks-master-0:~$ kubectl get svc -o wide
NAME         TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)        AGE   SELECTOR
kubernetes   ClusterIP   10.233.0.1      <none>        443/TCP        61m   <none>
nginx        NodePort    10.233.55.227   <none>        80:31719/TCP   33m   app=nginx

拜访 Nginx 服务

运行以下命令拜访部署的 Nginx 服务,验证服务是否胜利部署。

  • 验证间接拜访 Pod
curl 10.233.103.5

# 拜访后果如下
kube@ks-master-0:~$ curl 10.233.103.5
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
<style>
html {color-scheme: light dark;}
body { width: 35em; margin: 0 auto;
font-family: Tahoma, Verdana, Arial, sans-serif; }
</style>
</head>
<body>
<h1>Welcome to nginx!</h1>
<p>If you see this page, the nginx web server is successfully installed and
working. Further configuration is required.</p>

<p>For online documentation and support please refer to
<a href="http://nginx.org/">nginx.org</a>.<br/>
Commercial support is available at
<a href="http://nginx.com/">nginx.com</a>.</p>

<p><em>Thank you for using nginx.</em></p>
</body>
</html>
  • 验证拜访 Service
curl 10.233.55.227

# 拜访后果同上,略
  • 验证拜访 Nodeport
curl 192.168.9.91:31719

# 拜访后果同上,略

在治理控制台查看

接下来咱们回到 KubeSphere 治理控制台,在治理控制台查看曾经创立的资源。

阐明: KubeSphere 的治理控制台具备敌对地、图形化创立 Kubernetes 各种资源的性能,次要是截图太麻烦了,所以本文采纳了命令行的形式简略的创立了测试资源。

只是在查看的时候给大家演示一下 KubeSphere 治理控制台的基本功能,理论应用中,大家能够应用图形化形式创立和治理 Kubernetes 资源。

  • 登录 KubeSphere 治理控制台,点击「平台治理」,抉择「集群治理」。
  • 单击集群治理页面左侧的「利用负载」,点击「工作负载」。默认会看到所有类型为 部署 的工作负载。

咱们应用的是 admin 账户,因而能够看到所有的工作负载,在搜寻框输出 Nginx,只显示 Nginx 部署工作负载。

  • 单击部署列表中的 Nginx,能够查看更具体的信息,并且治理 Nginx 部署(Deployment)。
  • 回到「平台治理」-「集群治理」页面,单击集群治理页面左侧的「利用负载」,点击「服务」。默认会看到所有类型为 服务 的工作负载。

咱们应用的是 admin 账户,因而能够看到所有的工作负载,在搜寻框输出 nginx,只显示 nginx 服务工作负载。

  • 单击服务列表中的 nginx,能够查看更具体的信息,并且治理 nginx 服务(Service)。

至此,咱们实现了将 Nginx Web 服务器部署到 Kubernetes 集群,并通过 KubeSphere 治理控制台查看、验证了部署的 Deployment、Pod、Service 的详细信息。

结束语

本文次要介绍了在三台 Debian 12 服务器上利用 KubeKey 自动化部署 KubeSphere 和 Kubernetes 高可用集群的具体过程。

部署实现后,咱们还利用 KubeSphere 治理控制台和 kubectl 命令行,查看并验证了 KubeSphere 和 Kubernetes 集群的状态。

最终咱们通过在 Kubenetes 集群上部署 Nginx Web 服务器验证了 Kubernetes 集群和 KubeSphere 的可用性,并通过在 KubeSphere 治理控制台查看 Nginx Pod 和 服务状态的操作,理解了 KubeSphere 的根本用法。

本文由博客一文多发平台 OpenWrite 公布!

退出移动版