kubernetes系列(十四) - 存储之PersistentVolume
2021-01-23 02:13
标签:ret yaml 持久化存储 glusterfs 多个 lex 安装 系统 none 在讲 Volume详情可见上一章: kubernetes系列(十三) - 存储之Volume 为了屏蔽底层存储实现的细节,让用户方便使用,同时让管理员方便管理。Kubernetes从V1.0版本就引入了 一个 简单来说 由集群管理员手动创建的一些PV 完整的概念 集群管理员创建一些PV。它们带有可供群集用户使用的实际存储的细节。它们存在于KubernetesAPl中,可用于消费。 简单来说 配置了允许动态PV的策略后,如果当前存在的PV无法满足PVC的要求,则会动态创建PV. 动态PV了解即可 完整的概念 当管理员创建的静态PV都不匹配用户的 PVC保护的目的是确保由pod正在使用的PVC不会从系统中移除,因为如果被移除的话可能会导致数据丢失 当启用PVC保护alpha功能时,如果用户删除了一个pod正在使用的PVC,则该PVC不会被立即删除。PVC的删除将被推迟,直到PVC不再被任何 pod使用 跟上一集中的volume支持的类型差不多 访问模式 在命令行cli中,三种访问模式可以简写为: 但不是所有的类型的底层存储都支持以上三种,每种底层存储类型支持的都不一样!! 最新版本中的
附:具体官网文档详细说明链接点击此处 PV可以处于以下的某种状态: 命令行会显示绑定到PV的PVC的名称 注:以下内容笔者没有实际尝试过,仅做记录使用 也就意味着服务间是通过Pod域名来通信而非PodIP,因为当Pod所在Node发生故障时,Pod会被飘移到其它 Node上,PodIP会发生变化,但是Pod域名不会有变化 其中,“cluster.local”指的是集群的域名 比如上面的 kubernetes系列(十四) - 存储之PersistentVolume 标签:ret yaml 持久化存储 glusterfs 多个 lex 安装 系统 none 原文地址:https://www.cnblogs.com/baoshu/p/13281876.html
1. PersistentVolume(PV)简介
1.1 为什么需要Persistent Volume(PV)
PersistentVolume(PV)
之前,我们需要先讲一下Volume
Volume
是被定义在pod上的(emptyDir或者hostPath
),属于计算资源
的一部分。所以Volume
是有局限性的,因为在实际的运用过程中,我们通常会先定义一个网络存储,然后从中划出一个网盘并挂接到虚拟机上。PersistentVolume(PV)
和与之相关联的PersistentVolumeClaim(PVC)
两个资源对象来实现对存储的管理
1.2 PersistentVolume(PV)和Volume的区别
PV
可以被理解成kubernetes
集群中的某个网络存储对应的一块存储,它与Volume
类似,但是有如下的区别:
Node
,但是可以在每个Node
上访问
pod
被删除了,PV
仍然存在,这点与Volume
不同
1.3 PV和PVC更具体的概念和关系
1.3.1 PersistentVolume(PV)
PersistentVolume(PV)
是由管理员设置的存储,它是群集的一部分。就像节点是集群中的资源一样,PV也是集群中的资源。PV是Volume之类的卷插件,但具有独立于使用PV的Pod的生命周期。此API对象包含存储实现的细节,即NFS
、iSCSl
或特定于云供应商的存储系统。1.3.2 PersistentVolumeClaim(PVC)
PersistentVolumeClaim(PVC)
是用户存储的请求。它与Pod相似。Pod消耗节点资源,PVC
消耗PV
资源。Pod可以请求特定级别的资源(CPU和内存)。声明可以请求特定的大小和访问模式(例如,可以以读/写一次或只读多次模式挂载)1.3.3 PV和PVC的关系和图解
pvc
是一种pv
的请求方案,PVC定义我当前需要什么样类型的PV,然后会自动在当前存在的pv中选取一个匹配度最高的pvPVC
只能绑定一个PV
!!
2. PersistentVolume(PV)的分类
2.1 静态PV
2.2 动态PV
PersistentVolumeClaim
时,集群可能会尝试动态地为PVC创建卷。此配置基于StorageClasses
,所以要启用基于存储级别的动态存储配置要求:
StorageClasses
StorageClasses
才能进行动态创建API server
上的DefaultStorageClass
[准入控制器]。例如,通过确保DefaultStorageClass
位于API server
组件的--admission-control
标志,使用逗号分隔的有序值列表中,可以完成此操作
3. PersistentVolumeClaim(PVC)的保护
4. PersistentVolume(PV)支持的底层存储类型
PersistentVolume
类型以插件形式实现. kubernetes
目前支持以下类型(排名不分先后):
GCEPersistentDisk
AWSElasticBlockStore
AzureFile
AzureDisk
FC(Fibre Channel)
FlexVolume
Flocker
NFS
iSCSI
RBD(Ceph Block Device)
CephFS
Cinder(OpenStack block storage)
Glusterfs
VsphereVolume
Quobyte
Volumes
HostPath
VMware
Photon
Portworx Volumes
Scalelo Volumes
StorageOS
5. PersistentVolume(PV)的资源清单
5.1 资源清单示例
apiVersion: v1
kind: PersistentVolume
metadata:
name:pve003
spec:
capacity:
# 卷的大小为5G
storage: 5Gi
# 存储卷的类型为:文件系统
volumeMode: Filesystem
# 访问策略:该卷可以被单个节点以读/写模式挂载
accessModes:
- ReadNriteOnce
# 回收策略:回收
persistentVolumeReclaimPolicy: Recycle
# 对应的具体底层存储的分级
# 比如有些固态或者其他存储类型比较快,就可以定义为strong
storageClassName: slow
# (可选的)挂载选项
mountOptions:
- hard
- nfsvers=4.1
# 具体对应的真实底层存储类型为nfs
# 挂载到172服务器下的/tmp目录
nfs:
path: /tmp
server: 172.17.0.2
5.2 PV的访问模式(spec.accessModes)
5.2.1 三种访问模式
accessModes
一共有三种:
ReadWriteOnce
: 该卷可以被单个节点以读/写模式挂载ReadOnlyMany
: 该卷可以被多个节点以只读模式挂载ReadWriteMany
: 该卷可以被多个节点以读/写模式挂载
RWO
- ReadWriteOnce
ROX
- ReadOnlyMany
RWX
- ReadWriteMany
5.2.2 各种底层存储具体支持的访问模式
Volume Plugin
ReadWriteOnce
ReadOnlyMany
ReadWriteMany
AWSElasticBlockStore
?
-
-
AzureFile
?
?
?
AzureDisk
?
-
-
CephFS
?
?
?
Cinder
?
-
-
FC
?
?
-
FlexVolume
?
?
-
Flocker
?
-
-
GCEPersistentDisk
?
?
-
Glusterfs
?
?
?
HostPath
?
-
-
iSCSI
?
?
-
PhotonPersistentDisk
?
-
-
Quobyte
?
?
?
NFS
?
?
?
RBD
?
?
-
VsphereVolume
?
-
-
PortworxVolume
?
-
?
ScaleIO
?
?
-
5.3 PV的回收策略(spec.persistentVolumeReclaimPolicy)
5.3.1 回收策略的三种策略
Retain
(保留): pv被删除后会保留内存,手动回收Recycle
(回收): 删除卷下的所有内容(rm-rf /thevolume/*
)Delete
(删除): 关联的存储资产(例如AWS EBS、GCE PD、Azure Disk 和OpenStack Cinder卷)将被删除。即直接把卷给删除了5.3.2 回收策略注意事项
NFS
和HostPath
支持Recycle
回收策略
Recycle
已被废弃,截图如下
Delete
删除策略
6. PersistentVolume(PV)的状态
Available
(可用): 块空闲资源还没有被任何声明绑定Bound
(已绑定): 卷已经被声明绑定, 注意:但是不一定不能继续被绑定,看accessModes
而定Released
(已释放): 声明被删除,但是资源还未被集群重新声明Failed
(失败): 该卷的自动回收失败
7. 实验-持久化演示说明-NFS
7.1 安装NFS服务器
yum install -y nfs-common nfs-utils rpcbind
mkdir /nfsdata
chmod 777 /nfsdata
chown nfsnobody /nfsdata
cat /etc/exports /nfsdata *(rw,no_root_squash,no_all_squash,sync)
systemctl start rpcbind
systemctl start nfs
7.2 在其他节点上安装客户端
yum -y install nfs-utils rpcbind
mkdir /test
showmount -e 192.168.66.100
mount -t nfs 192.168.66.100:/nfsdata /test/
cd /test/
ls
umount /test/
7.3 部署PV
apiVersion: v1
kind: PersistentVolume
metadata:
name: nfspv1
spec:
capacity:
storage: 10Gi
accessModes:
- ReadWriteOnce
persistentVolumeReclaimPolicy: Retain
storageClassName: nfs
nfs:
path: /nfsdata
server: 192.168.66.100
7.4 创建服务并使用PVC
apiVersion: v1
kind: Service
metadata:
name: nginx
labels:
app: nginx
spec:
ports:
- port: 80
name: web
clusterIP: None
selector:
app: nginx
---
apiVersion: apps/v1
kind: StatefulSet
metadata:
name: web
spec:
selector:
matchLabels:
app: nginx
serviceName: "nginx"
replicas: 3
template:
metadata:
labels:
app: nginx
spec:
containers:
- name: nginx
image: k8s.gcr.io/nginx-slim:0.8
ports:
- containerPort: 80
name: web
volumeMounts:
- name: www
mountPath: /usr/share/nginx/html
volumeClaimTemplates:
- metadata:
name: www
spec:
accessModes: [ "ReadWriteOnce" ]
storageClassName: "nfs"
resources:
requests:
storage: 1Gi
8. 关于 Statefulset
StatefulSet
为每个Pod副本创建了一个DNS域
名,这个域名的格式为:S(podname).(headless servername)
StatefulSet
使用Headless服务
来控制Pod的域名,这个域名的FQDN为:S(servicename).$(namespace).svc.cluster.local
volumeClaimTemplates
,为每个Pod 创建一个pvo,pvc的命名规则匹配模式:(volumeClaimTemplates.name)-(pod_name)
volumeMounts.name=www,Podname-web-[0-2]
,因此创建出来的PVC是 www-web-0、www-web-1、 www-web-2
文章标题:kubernetes系列(十四) - 存储之PersistentVolume
文章链接:http://soscw.com/index.php/essay/45696.html