共计 8054 个字符,预计需要花费 21 分钟才能阅读完成。
体验简介
场景将提供一台配置了 CentOS 8.5 操作系统和装置部署 PolarDB- X 集群的 ECS 实例(云服务器)。通过本教程的操作,带您体验如何应用 PolarDB- X 搭建一个高可用零碎,通过间接 kill 容器模仿节点故障,以察看 PolarDB-X 的主动复原状况。立刻返回
试验筹备
1. 创立试验资源
开始试验之前,您须要先创立 ECS 实例资源。
- 在实验室页面,单击 创立资源。
- (可选)在实验室页面左侧导航栏中,单击 云产品资源 列表,可查看本次试验资源相干信息(例如 IP 地址、用户信息等)。
阐明:资源创立过程须要 1~3 分钟。
2. 装置环境
本步骤将领导您如何装置 Docker、kubectl、minikube 和 Helm3。
- 装置 Docker。
a. 执行如下命令,装置 Docker。
curl -fsSL https://get.docker.com | bash -s docker --mirror Aliyun
b. 执行如下命令,启动 Docker。
systemctl start docker
- 装置 kubectl。
a. 执行如下命令,下载 kubectl 文件。
curl -LO https://storage.googleapis.com/kubernetes-release/release/$(curl -s https://storage.googleapis.com/kubernetes-release/release/stable.txt)/bin/linux/amd64/kubectl
b. 执行如下命令,赋予可执行权限。
chmod +x ./kubectl
c. 执行如下命令,挪动到系统目录。
mv ./kubectl /usr/local/bin/kubectl
- 装置 minikube。
执行如下命令,下载并装置 minikube。
curl -LO https://storage.googleapis.com/minikube/releases/latest/minikube-linux-amd64
sudo install minikube-linux-amd64 /usr/local/bin/minikube
- 装置 Helm3。
a. 执行如下命令,下载 Helm3。
wget https://labfileapp.oss-cn-hangzhou.aliyuncs.com/helm-v3.9.0-linux-amd64.tar.gz
b. 执行如下命令,解压 Helm3。
tar -zxvf helm-v3.9.0-linux-amd64.tar.gz
c. 执行如下命令,挪动到系统目录。
mv linux-amd64/helm /usr/local/bin/helm
5. 装置 MySQL。
yum install mysql -y
3. 应用 PolarDB-X Operator 装置 PolarDB-X
本步骤将领导您如何创立一个简略的 Kubernetes 集群并部署 PolarDB-X Operator,应用 Operator 部署一个残缺的 PolarDB- X 集群,具体文档请参考通过 Kubernetes 装置 PolarDB-X。
- 应用 minikube 创立 Kubernetes 集群。
minikube 是由社区保护的用于疾速创立 Kubernetes 测试集群的工具,适宜测试和学习 Kubernetes。应用 minikube 创立的 Kubernetes 集群能够运行在容器或是虚拟机中,本试验场景以 CentOS 8.5 上创立 Kubernetes 为例。
阐明:如果您应用其余操作系统部署 minikube,例如 macOS 或 Windows,局部步骤可能略有不同。
a. 执行如下命令,新建账号 galaxykube,并将 galaxykube 退出 docker 组中。minikube 要求应用非 root 账号进行部署,所有您须要新建一个账号。
useradd -ms /bin/bash galaxykube
usermod -aG docker galaxykube
b. 执行如下命令,切换到账号 galaxykube。
su galaxykube
c. 执行如下命令,进入到 home/galaxykube 目录。
cd
d. 执行如下命令,启动一个 minikube。
阐明:这里咱们应用了阿里云的 minikube 镜像源以及 USTC 提供的 docker 镜像源来减速镜像的拉取。
minikube start --cpus 4 --memory 12288 --image-mirror-country cn --registry-mirror=https://docker.mirrors.sjtug.sjtu.edu.cn --kubernetes-version 1.23.3
返回后果如下,示意 minikube 曾经失常运行,minikube 将主动设置 kubectl 的配置文件。
e. 执行如下命令,应用 kubectl 查看集群信息。
kubectl cluster-info
返回如下后果,您能够查看到集群相干信息。
- 部署 PolarDB-X Operator。
a. 执行如下命令,创立一个名为 polardbx-operator-system 的命名空间。
kubectl create namespace polardbx-operator-system
b. 执行如下命令,装置 PolarDB-X Operator。
helm repo add polardbx https://polardbx-charts.oss-cn-beijing.aliyuncs.com
helm install --namespace polardbx-operator-system polardbx-operator polardbx/polardbx-operator
c. 执行如下命令,查看 PolarDB-X Operator 组件的运行状况。
kubectl get pods --namespace polardbx-operator-system
返回后果如下,请您急躁期待 2 分钟,期待所有组件都进入 Running 状态,示意 PolarDB-X Operator 曾经装置实现。
- 部署 PolarDB-X 集群。
a. 执行如下命令,创立 polardb-x.yaml。
vim polardb-x.yaml
b. 按 i 键进入编辑模式,将如下代码复制到文件中,而后按 ECS 退出编辑模式,输出:wq 后按下 Enter 键保留并退出。
apiVersion: polardbx.aliyun.com/v1
kind: PolarDBXCluster
metadata:
name: polardb-x
spec:
config:
dn:
mycnfOverwrite: |-
print_gtid_info_during_recovery=1
gtid_mode = ON
enforce-gtid-consistency = 1
recovery_apply_binlog=on
slave_exec_mode=SMART
topology:
nodes:
cdc:
replicas: 1
template:
resources:
limits:
cpu: "1"
memory: 1Gi
requests:
cpu: 100m
memory: 500Mi
cn:
replicas: 2
template:
resources:
limits:
cpu: "2"
memory: 4Gi
requests:
cpu: 100m
memory: 1Gi
dn:
replicas: 1
template:
engine: galaxy
hostNetwork: true
resources:
limits:
cpu: "2"
memory: 4Gi
requests:
cpu: 100m
memory: 500Mi
gms:
template:
engine: galaxy
hostNetwork: true
resources:
limits:
cpu: "1"
memory: 1Gi
requests:
cpu: 100m
memory: 500Mi
serviceType: ClusterIP
upgradeStrategy: RollingUpgrade
c. 执行如下命令,创立 PolarDB- X 集群。
kubectl apply -f polardb-x.yaml
d. 执行如下命令,查看 PolarDB- X 集群创立状态。
kubectl get polardbxCluster polardb-x -o wide -w
返回后果如下,请您急躁期待七分钟左右,当 PHASE 显示为 Running 时,示意 PolarDB- X 集群曾经部署实现。
e. 按 Ctrl+ C 键,退出查看 PolarDB- X 集群创立状态。
4. 连贯 PolarDB- X 集群
本步骤将领导您如何连贯通过 K8s 部署的 PolarDB- X 集群。
- 执行如下命令,查看 PolarDB- X 集群登录明码。
kubectl get secret polardb-x -o jsonpath="{.data['polardbx_root']}" | base64 -d - | xargs echo "Password:"
返回后果如下,您能够查看到 PolarDB- X 集群登录明码。
- 执行如下命令,将 PolarDB- X 集群端口转发到 3306 端口。
阐明:应用 MySQL Client 形式登录通过 k8s 部署的 PolarDB- X 集群前,您须要进行获取 PolarDB- X 集群登录明码和端口转发。
kubectl port-forward svc/polardb-x 3306
- 在试验页面,单击右上角的 图标,创立新的终端二。
- 执行如下命令,连贯 PolarDB- X 集群。
阐明:
- 您须要将 <PolarDB- X 集群登录明码 > 替换为理论获取到的 PolarDB- X 集群登录明码。
- 如遇到 mysql: [Warning] Using a password on the command line interface can be insecure.ERROR 2013 (HY000): Lost connection to MySQL server at ‘reading initial communication packet’, system error: 0 报错,请您稍等一分钟,从新转发端口并连贯 PolarDB- X 集群即可。
mysql -h127.0.0.1 -P3306 -upolardbx_root -p<PolarDB- X 集群登录明码 >
5. 启动业务
本步骤将领导您如何应用 Sysbench OLTP 场景模仿业务流量。
-
筹备压测数据。
- 执行如下 SQL 语句,创立压测数据库 sysbench_test。
create database sysbench_test;
- 输出 exit 退出数据库。
- 执行如下命令,切换到账号 galaxykube。
su galaxykube
- 执行如下命令,进入到 /home/galaxykube 目录。
cd
- 执行如下命令,创立筹备压测数据的 sysbench-prepare.yaml 文件。
vim sysbench-prepare.yaml
- 按 i 键进入编辑模式,将如下代码复制到文件中,而后按 ECS 退出编辑模式,输出:wq 后按下 Enter 键保留并退出。
apiVersion: batch/v1
kind: Job
metadata:
name: sysbench-prepare-data-test
namespace: default
spec:
backoffLimit: 0
template:
spec:
restartPolicy: Never
containers:
- name: sysbench-prepare
image: severalnines/sysbench
env:
- name: POLARDB_X_USER
value: polardbx_root
- name: POLARDB_X_PASSWD
valueFrom:
secretKeyRef:
name: polardb-x
key: polardbx_root
command: ['sysbench']
args:
- --db-driver=mysql
- --mysql-host=$(POLARDB_X_SERVICE_HOST)
- --mysql-port=$(POLARDB_X_SERVICE_PORT)
- --mysql-user=$(POLARDB_X_USER)
- --mysql_password=$(POLARDB_X_PASSWD)
- --mysql-db=sysbench_test
- --mysql-table-engine=innodb
- --rand-init=on
- --max-requests=1
- --oltp-tables-count=1
- --report-interval=5
- --oltp-table-size=160000
- --oltp_skip_trx=on
- --oltp_auto_inc=off
- --oltp_secondary
- --oltp_range_size=5
- --mysql_table_options=dbpartition by hash(`id`)
- --num-threads=1
- --time=3600
- /usr/share/sysbench/tests/include/oltp_legacy/parallel_prepare.lua
- run
- 执行如下命令,运行筹备压测数据的 sysbench-prepare.yaml 文件,初始化测试数据。
kubectl apply -f sysbench-prepare.yaml
- 执行如下命令,获取工作进行状态。
kubectl get jobs
返回后果如下,请您急躁期待大概 1 分钟,当工作状态 COMPLETIONS 为 1 / 1 时,示意数据曾经初始化实现。
-
启动压测流量。
- 执行如下命令,创立启动压测的 sysbench-oltp.yaml 文件。
vim sysbench-oltp.yaml
- 按 i 键进入编辑模式,将如下代码复制到文件中,而后按 ECS 退出编辑模式,输出:wq 后按下 Enter 键保留并退出。
apiVersion: batch/v1
kind: Job
metadata:
name: sysbench-oltp-test
namespace: default
spec:
backoffLimit: 0
template:
spec:
restartPolicy: Never
containers:
- name: sysbench-oltp
image: severalnines/sysbench
env:
- name: POLARDB_X_USER
value: polardbx_root
- name: POLARDB_X_PASSWD
valueFrom:
secretKeyRef:
name: polardb-x
key: polardbx_root
command: ['sysbench']
args:
- --db-driver=mysql
- --mysql-host=$(POLARDB_X_SERVICE_HOST)
- --mysql-port=$(POLARDB_X_SERVICE_PORT)
- --mysql-user=$(POLARDB_X_USER)
- --mysql_password=$(POLARDB_X_PASSWD)
- --mysql-db=sysbench_test
- --mysql-table-engine=innodb
- --rand-init=on
- --max-requests=0
- --oltp-tables-count=1
- --report-interval=5
- --oltp-table-size=160000
- --oltp_skip_trx=on
- --oltp_auto_inc=off
- --oltp_secondary
- --oltp_range_size=5
- --mysql-ignore-errors=all
- --num-threads=8
- --time=3600
- /usr/share/sysbench/tests/include/oltp_legacy/oltp.lua
- run
- 执行如下命令,运行启动压测的 sysbench-oltp.yaml 文件,开始压测。
kubectl apply -f sysbench-oltp.yaml
- 执行如下命令,查找压测脚本运行的 POD。
kubectl get pods
返回后果如下,以‘sysbench-oltp-test-’结尾的 POD 即为指标 POD。
- 执行如下命令,查看 QPS 等流量数据。
阐明:您须要将命令中的指标 POD 替换为以‘sysbench-oltp-test-’结尾的 POD。
kubectl logs -f 指标 POD
6. 体验 PolarDB- X 高可用能力
通过后面的筹备工作,咱们曾经用 PolarDB-X+Sysbench OLTP 搭建了一个正在运行的业务零碎。本步骤将领导您通过应用 kill POD 的形式,模仿物理机宕机、断网等导致的节点不可用场景,并察看业务 QPS 的变动状况。
- 在试验页面,单击右上角的 图标,创立新的终端三。
-
kill CN。
- 执行如下命令,切换到账号 galaxykube。
su galaxykube
- 执行如下命令,获取 CN POD 的名字。
kubectl get pods
返回后果如下,以‘polardb-x-xxxx-cn-default’结尾的是 CN POD 的名字。
- 执行如下命令,删除任意一个 CN POD。阐明:您须要将命令中的 <CN POD> 替换为任意一个以‘polardb-x-xxxx-cn-default’结尾的 CN POD 的名字。
kubectl delete pod <CN POD>
- 执行如下命令,查看 CN POD 主动创立状况。
kubectl get pods
返回后果如下,您可查看到 CN POD 曾经处于主动创立中。
通过几十秒后,被 kill 的 CN POD 主动恢复正常。
- 切换至终端二,您可查看 kill CN 之后业务 QPS 的状况。
-
kill DN。
- 切换至终端三,执行如下命令,获取 DN POD 的名字。
kubectl get pods
返回后果如下,以‘polardb-x-xxxx-dn’结尾的是 DN POD 的名字。
- 执行如下命令,删除任意一个 DN POD。
阐明:
- 您须要将命令中的 <DN POD> 替换为任意一个以‘polardb-x-xxxx-dn’结尾的 DN POD 的名字。
- DN 每个逻辑节点为三正本架构,也就是说一个 DN 节点对应 3 个 POD,可任意抉择一个进行删除操作。此外,GMS 节点是一个非凡角色的 DN,同样具备高可用能力,可抉择任一 POD 进行删除。
kubectl delete pod <DN POD>
- 执行如下命令,查看 DN POD 主动创立状况。
kubectl get pods
返回后果如下,您可查看到 DN POD 曾经处于主动创立中。
通过几十秒后,被 kill 的 DN POD 主动恢复正常。
- 切换至终端二,您可查看 kill DN 之后业务 QPS 的状况。
-
kill CDC。
- 切换至终端三,执行如下命令,获取 CDC POD 的名字。
kubectl get pods
返回后果如下,以‘polardb-x-xxxx-cdc-defaul’结尾的是 CDC POD 的名字。
- 执行如下命令,删除任意一个 CDC POD。
阐明:您须要将命令中的 <CDC POD> 替换为任意一个以‘polardb-x-xxxx-cdc-defaul’结尾的 CDC POD 的名字。
kubectl delete pod <CDC POD>
- 执行如下命令,查看 CDC POD 主动创立状况。
kubectl get pods
返回后果如下,您可查看到 CDC POD 曾经处于主动创立中。
通过几十秒后,被 kill 的 CDC POD 主动恢复正常。
- 切换至终端二,您可查看 kill CDC 之后业务 QPS 的状况。
7. 理解更多
如果您想理解更多无关 PolarDB- X 高可用常识,详情请参见如下内容。
- PolarDB- X 一致性共识协定——X-Paxos
- PolarDB- X 存储架构之“基于 Paxos 的最佳生产实践”
- 数据库架构杂谈(2)高可用与一致性
- PolarDB- X 源码解读(番外):如何实现一个 Paxos
- PolarDB-Xon Kubernetes(一)
- PolarDB-XOperator 之弹性扩缩容
祝贺实现