概念
PersistentVolume(PV)
是由管理员设置的存储,它是群集的一部分。就像节点是集群中的资源一样,PV也是集群中的资源。PV是Volume之类的卷插件,但具备独立于应用PV的Pod的生命周期。此API对象蕴含存储实现的细节,即NFS、iSCSI或特定于云供应商的存储系统
PersistentVolumeClaim(PVC)
是用户存储的申请。它与Pod类似。Pod耗费节点资源,PVC耗费PV资源。Pod能够申请特定级别的资源(CPU和内存)。申明能够申请特定的大小和拜访模式(例如,能够以读/写一次或只读屡次模式挂载)
动态pv
集群管理员创立一些PV。它们带有可供群集用户应用的理论存储的细节。它们存在于Kubernetes API中,可用于生产
动静
当管理员创立的动态PV都不匹配用户的PersistentVolumeClaim时,集群可能会尝试动静地为PVC创立卷。此配置基于StorageClasses:PVC必须申请[存储类],并且管理员必须创立并配置该类能力进行动态创建。申明该类为””能够无效地禁用其动静配置要启用基于存储级别的动静存储配置,集群管理员须要启用API server上的DefaultStorageClass[准入控制器]。例如,通过确保DefaultStorageClass位于API server组件的–admission-control标记,应用逗号分隔的有序值列表中,能够实现此操作
绑定
master中的管制环路监督新的PVC,寻找匹配的PV(如果可能),并将它们绑定在一起。如果为新的PVC动静调配PV,则该环路将始终将该PV绑定到PVC。否则,用户总会失去他们所申请的存储,然而容量可能超出要求的数量。一旦PV和PVC绑定后,PersistentVolumeClaim绑定是排他性的,不论它们是如何绑定的。PVC跟PV绑定是一对一的映射
长久化卷申明的爱护
PVC爱护的目标是确保由pod正在应用的PVC不会从零碎中移除,因为如果被移除的话可能会导致数据失落当启用PVC爱护alpha性能时,如果用户删除了一个pod正在应用的PVC,则该PVC不会被立刻删除。PVC的删除将被推延,直到PVC不再被任何pod应用
长久化卷类型
PersistentVolume类型以插件模式实现。Kubernetes目前反对以下插件类型:
- GCEPersistentDiskAWSElasticBlockStore AzureFile AzureDisk FC (Fibre Channel)
- FlexVolumeFlockerNFS iSCSIRBD (Ceph Block Device) CephFS
- Cinder (OpenStack block storage) Glusterfs VsphereVolume Quobyte Volumes
- HostPathVMware Photon Portworx Volumes ScaleIO Volumes StorageOS
长久卷演示代码
apiVersion: v1
kind: PersistentVolume
metadata:
name: pv0003
spec:
capacity:
storage: 5Gi
volumeMode: Filesystem
accessModes:
- ReadWriteOnce
persistentVolumeReclaimPolicy: Recycle
storageClassName: slow
mountOptions:
- hard
- nfsvers=4.1
nfs:
path: /tmp
server: 172.17.0.2
PV拜访模式
PersistentVolume能够以资源提供者反对的任何形式挂载到主机上。如下表所示,供应商具备不同的性能,每个PV的拜访模式都将被设置为该卷反对的特定模式。例如,NFS能够反对多个读/写客户端,但特定的NFS PV可能以只读形式导出到服务器上。每个PV都有一套本人的用来形容特定性能的拜访模式
- ReadWriteOnce——该卷能够被单个节点以读/写模式挂载
- ReadOnlyMany——该卷能够被多个节点以只读模式挂载
- ReadWriteMany——该卷能够被多个节点以读/写模式挂载
在命令行中,拜访模式缩写为:
- RWO – ReadWriteOnce
- ROX – ReadOnlyMany
- RWX – ReadWriteMany
回收策略
- Retain(保留)——手动回收
- Recycle(回收)——根本擦除(rm-rf/thevolume/*)
- Delete(删除)——关联的存储资产(例如AWS EBS、GCE PD、Azure Disk和OpenStack Cinder卷)将被删除
以后,只有NFS和HostPath反对回收策略。AWS EBS、GCE PD、Azure Disk和Cinder卷反对删除策略
状态
卷能够处于以下的某种状态:
- Available(可用)——一块闲暇资源还没有被任何申明绑定
- Bound(已绑定)——卷曾经被申明绑定
- Released(已开释)——申明被删除,然而资源还未被集群从新申明
- Failed(失败)——该卷的主动回收失败
命令行会显示绑定到PV的PVC的名称
长久化演示阐明- NFS
Ⅰ、装置NFS服务器
yum install -y nfs-common nfs-utils rpcbind
mkdir /nfsdata
chmod 666 /nfsdata
chown nfsnobody /nfsdata
cat /etc/exports /nfsdata *(rw,no_root_squash,no_all_squash,sync)
systemctl start rpcbind
systemctl start nfs
Ⅱ、部署PV
apiVersion: v1
kind: PersistentVolume
metadata:
name: nfspv1
spec:
capacity:
storage: 1Gi
accessModes:
- ReadWriteOnce
persistentVolumeReclaimPolicy: Recycle
storageClassName: nfs
nfs:
path: /data/nfs
server: 10.66.66.10
Ⅲ、创立服务并应用PVC
apiVersion: v1
kind: Service
metadata:
name: nginx
labels:
app: nginx
spec:
ports:
- port: 80
name: web
clusterIP: None
selector:
app: nginx
---
apiVersion: apps/v1
kind: StatefulSet
metadata:
name: web
spec:
selector:
matchLabels:
app: nginx
serviceName: "nginx"
replicas: 3
template:
metadata:
labels:
app: nginx
spec:
containers:
- name: nginx
image: k8s.gcr.io/nginx-slim:0.8
ports:
- containerPort: 80
name: web
volumeMounts:
- name: www
mountPath: /usr/share/nginx/html
volumeClaimTemplates:
- metadata:
name: www
spec:
accessModes: ["ReadWriteOnce"]
storageClassName: "nfs"
resources:
requests:
storage: 1Gi
对于StatefulSet
- 匹配Pod name (网络标识)的模式为:$(statefulset名称)-$(序号),比方下面的示例:web-0,web-1,web-2
- StatefulSet为每个Pod正本创立了一个DNS域名,这个域名的格局为:$(podname).(headless servername),也就意味着服务间是通过Pod域名来通信而非Pod IP,因为当Pod所在Node产生故障时,Pod会被飘移到其它Node上,Pod IP会发生变化,然而Pod域名不会有变动
- StatefulSet应用Headless服务来管制Pod的域名,这个域名的FQDN为:$(servicename).$(namespace).svc.cluster.local,其中,“cluster.local”指的是集群的域名
- 依据volumeClaimTemplates,为每个Pod创立一个pvc,pvc的命名规定匹配模式:(volumeClaimTemplates.name)-(pod_name),比方下面的volumeMounts.name=www,Podname=web-[0-2],因而创立进去的PVC是www-web-0、www-web-1、www-web-2
- 删除Pod不会删除其pvc,手动删除pvc将主动开释pv
Statefulset的启停程序:
- 有序部署:部署StatefulSet时,如果有多个Pod正本,它们会被程序地创立(从0到N-1)并且,在下一个Pod运行之前所有之前的Pod必须都是Running和Ready状态。
- 有序删除:当Pod被删除时,它们被终止的程序是从N-1到0。
- 有序扩大:当对Pod执行扩大操作时,与部署一样,它后面的Pod必须都处于Running和Ready状态。
StatefulSet应用场景:
- 稳固的长久化存储,即Pod从新调度后还是能拜访到雷同的长久化数据,基于PVC来实现。
- 稳固的网络标识符,即Pod从新调度后其PodName和HostName不变。
- 有序部署,有序扩大,基于init containers来实现。
- 有序膨胀。
发表回复