深入剖析Kubernetes
张磊
Kubernetes社区资深成员与项目维护者
立即订阅
21365 人已学习
课程目录
已完结 56 讲
0/4登录后,你可以任选4讲全文学习。
课前必读 (5讲)
开篇词 | 打通“容器技术”的任督二脉
免费
01 | 预习篇 · 小鲸鱼大事记(一):初出茅庐
02 | 预习篇 · 小鲸鱼大事记(二):崭露头角
03 | 预习篇 · 小鲸鱼大事记(三):群雄并起
04 | 预习篇 · 小鲸鱼大事记(四):尘埃落定
容器技术概念入门篇 (5讲)
05 | 白话容器基础(一):从进程说开去
06 | 白话容器基础(二):隔离与限制
07 | 白话容器基础(三):深入理解容器镜像
08 | 白话容器基础(四):重新认识Docker容器
09 | 从容器到容器云:谈谈Kubernetes的本质
Kubernetes集群搭建与实践 (3讲)
10 | Kubernetes一键部署利器:kubeadm
11 | 从0到1:搭建一个完整的Kubernetes集群
12 | 牛刀小试:我的第一个容器化应用
容器编排与Kubernetes作业管理 (15讲)
13 | 为什么我们需要Pod?
14 | 深入解析Pod对象(一):基本概念
15 | 深入解析Pod对象(二):使用进阶
16 | 编排其实很简单:谈谈“控制器”模型
17 | 经典PaaS的记忆:作业副本与水平扩展
18 | 深入理解StatefulSet(一):拓扑状态
19 | 深入理解StatefulSet(二):存储状态
20 | 深入理解StatefulSet(三):有状态应用实践
21 | 容器化守护进程的意义:DaemonSet
22 | 撬动离线业务:Job与CronJob
23 | 声明式API与Kubernetes编程范式
24 | 深入解析声明式API(一):API对象的奥秘
25 | 深入解析声明式API(二):编写自定义控制器
26 | 基于角色的权限控制:RBAC
27 | 聪明的微创新:Operator工作原理解读
Kubernetes容器持久化存储 (4讲)
28 | PV、PVC、StorageClass,这些到底在说啥?
29 | PV、PVC体系是不是多此一举?从本地持久化卷谈起
30 | 编写自己的存储插件:FlexVolume与CSI
31 | 容器存储实践:CSI插件编写指南
Kubernetes容器网络 (8讲)
32 | 浅谈容器网络
33 | 深入解析容器跨主机网络
34 | Kubernetes网络模型与CNI网络插件
35 | 解读Kubernetes三层网络方案
36 | 为什么说Kubernetes只有soft multi-tenancy?
37 | 找到容器不容易:Service、DNS与服务发现
38 | 从外界连通Service与Service调试“三板斧”
39 | 谈谈Service与Ingress
Kubernetes作业调度与资源管理 (5讲)
40 | Kubernetes的资源模型与资源管理
41 | 十字路口上的Kubernetes默认调度器
42 | Kubernetes默认调度器调度策略解析
43 | Kubernetes默认调度器的优先级与抢占机制
44 | Kubernetes GPU管理与Device Plugin机制
Kubernetes容器运行时 (3讲)
45 | 幕后英雄:SIG-Node与CRI
46 | 解读 CRI 与 容器运行时
47 | 绝不仅仅是安全:Kata Containers 与 gVisor
Kubernetes容器监控与日志 (3讲)
48 | Prometheus、Metrics Server与Kubernetes监控体系
49 | Custom Metrics: 让Auto Scaling不再“食之无味”
50 | 让日志无处可逃:容器日志收集与管理
再谈开源与社区 (1讲)
51 | 谈谈Kubernetes开源社区和未来走向
答疑文章 (1讲)
52 | 答疑:在问题中解决问题,在思考中产生思考
特别放送 (1讲)
特别放送 | 2019 年,容器技术生态会发生些什么?
结束语 (1讲)
结束语 | Kubernetes:赢开发者赢天下
特别放送 | 云原生应用管理系列 (1讲)
基于 Kubernetes 的云原生应用管理,到底应该怎么做?
深入剖析Kubernetes
登录|注册

28 | PV、PVC、StorageClass,这些到底在说啥?

张磊 2018-10-26

你好,我是张磊。今天我和你分享的主题是:PV、PVC、StorageClass,这些到底在说啥?

在前面的文章中,我重点为你分析了 Kubernetes 的各种编排能力。

在这些讲解中,你应该已经发现,容器化一个应用比较麻烦的地方,莫过于对其“状态”的管理。而最常见的“状态”,又莫过于存储状态了。

所以,从今天这篇文章开始,我会通过 4 篇文章为你剖析 Kubernetes 项目处理容器持久化存储的核心原理,从而帮助你更好地理解和使用这部分内容。

首先,我们来回忆一下我在第 19 篇文章《深入理解 StatefulSet(二):存储状态》中,和你分享 StatefulSet 如何管理存储状态的时候,介绍过的Persistent Volume(PV)和 Persistent Volume Claim(PVC)这套持久化存储体系。

其中,PV 描述的,是持久化存储数据卷。这个 API 对象主要定义的是一个持久化存储在宿主机上的目录,比如一个 NFS 的挂载目录。

通常情况下,PV 对象是由运维人员事先创建在 Kubernetes 集群里待用的。比如,运维人员可以定义这样一个 NFS 类型的 PV,如下所示:

apiVersion: v1
kind: PersistentVolume
metadata:
name: nfs
spec:
storageClassName: manual
capacity:
storage: 1Gi
accessModes:
- ReadWriteMany
nfs:
server: 10.244.1.4
path: "/"
复制代码

PVC 描述的,则是 Pod 所希望使用的持久化存储的属性。比如,Volume 存储的大小、可读写权限等等。

© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
该试读文章来自付费专栏《深入剖析Kubernetes》,如需阅读全部文章,
请订阅文章所属专栏。
立即订阅
登录 后留言

精选留言(30)

  • mazhen
    容器持久化存储涉及的概念比较多,试着总结一下整体流程。

    用户提交请求创建pod,Kubernetes发现这个pod声明使用了PVC,那就靠PersistentVolumeController帮它找一个PV配对。

    没有现成的PV,就去找对应的StorageClass,帮它新创建一个PV,然后和PVC完成绑定。

    新创建的PV,还只是一个API 对象,需要经过“两阶段处理”变成宿主机上的“持久化 Volume”才真正有用:
    第一阶段由运行在master上的AttachDetachController负责,为这个PV完成 Attach 操作,为宿主机挂载远程磁盘;
    第二阶段是运行在每个节点上kubelet组件的内部,把第一步attach的远程磁盘 mount 到宿主机目录。这个控制循环叫VolumeManagerReconciler,运行在独立的Goroutine,不会阻塞kubelet主循环。

    完成这两步,PV对应的“持久化 Volume”就准备好了,POD可以正常启动,将“持久化 Volume”挂载在容器内指定的路径。

    作者回复: 总结的好!后面还有更多概念!

    2018-10-26
    58
  • Eurica
    “所谓将一个 PV 与 PVC 进行“绑定”,其实就是将这个 PV 对象的名字,填在了 PVC 对象的 spec.volumeName 字段上。”
    请问老师为什么在pvc的yaml文件中看不到这个字段呢?

    作者回复: 看它的api types定义

    2018-10-29
    4
  • Geek_89bbab
    kubectl describe persistentvolumeclaim/claim1
    Name: claim1
    Namespace: default
    StorageClass: block-service
    Status: Pending
    Volume:
    Labels: <none>
    Annotations: .......
    Events:
      Type Reason Age From Message
      ---- ------ ---- ---- -------
      Warning ProvisioningFailed 10m (x13 over 23m) ceph.rook.io/block rook-ceph-operator-5bfbf654db-ncgdf 97142e78-de86-11e8-a7d1-e6678be2ea25 Failed to provision volume with StorageClass "block-service": Failed to create rook block image replicapool/pvc-5b68d13b-e501-11e8-8b01-00163e0cf240: failed to create image pvc-5b68d13b-e501-11e8-8b01-00163e0cf240 in pool replicapool of size 2147483648: Failed to complete '': exit status 2. rbd: error opening pool 'replicapool': (2) No such file or directory
    . output:
      Normal Provisioning 5m (x15 over 23m) ceph.rook.io/block rook-ceph-operator-5bfbf654db-ncgdf 97142e78-de86-11e8-a7d1-e6678be2ea25 External provisioner is provisioning volume for claim "default/claim1"
      Normal ExternalProvisioning 2m (x331 over 23m) persistentvolume-controller waiting for a volume to be created, either by external provisioner "ceph.rook.io/block" or manually created by system administrator

    老师,这个是什么原因导致的? 没有这个文件或者目录?
    2018-11-11
    1
    2
  • huan
    老师的问题的思考,90%都是动态申请存储的,所以我觉得pv和pvc都去掉,只有storage class和必要的参数(空间大小和读写属性 )放在pod中即可
    2018-10-28
    2
  • A-
    张老师,问一个比较空泛的问题。您之前是做paas平台的,今后的pass平台的发展方向是什么呢?当前做paas平台,最大的阻碍是什么?最大的价值又是什么呢?

    作者回复: paas最后就是各家基于kubernetes DIY。这样多好。

    2018-10-27
    2
  • 虎虎❤️
    @GR 是一一对应的关系,可以创建一个大的pvc共用,用子目录区别开。前提是在一个namespace下。
    也可以开发插件,支持动态创建pv
    2018-10-26
    2
  • GR
    一个pv可以对应几个pvc,一对一吗?
    可以创建一个大的pv然后每个应用有自己的pvc,存储路径通过subpath来区分,是否可行呢?
    2018-10-26
    2
    2
  • Geek_e2f5e1
    老师,如果我原先存储上就有数据需要挂载进去,那格式化操作岂不是不能满足我的需求?

    作者回复: 格式化前肯定要检查啊,只有raw格式才需要格式化

    2019-04-09
    1
  • jssfy
    请问
    1. 同一集群的多个pod可否同时挂载同一个pv的同一个subpath
    2. 如果pv写满了如何扩容

    作者回复: 要看存储插件是否支持。pv只是逻辑概念,你的数据是在远程存储里的,所以resize是存储插件的功能。

    2018-11-25
    1
  • Geek_89bbab
    有人执行pvc有遇到这样的错误吗?
    Failed to provision volume with StorageClass "rook-ceph-block": Failed to create rook block image replicapool/pvc-0574eb19-e58c-11e8-8b01-00163e0cf240: failed to create image pvc-0574eb19-e58c-11e8-8b01-00163e0cf240 in pool replicapool of size 2147483648: Failed to complete '': exit status 2. rbd: error opening pool 'replicapool': (2) No such file or directory
    2018-11-11
    1
  • tuxknight
    在公有云上使用 PV/PVC 有个很重要的限制:块存储设备必须和实例在同一个可用区。在 Pod 没被创建的时候是不确定会被调度到哪个可用区,从而无法动态的创建出PV。这种问题要怎么处理?

    作者回复: scheduler里的volumezonechecker规则了解一下。

    2018-10-28
    1
  • Dem
    直接使用范例中的web-frontend的yaml进行kubectl apply -f的时候会遇到报错:
    ```
    error: error when retrieving current configuration of:
    Resource: "/v1, Resource=pods", GroupVersionKind: "/v1, Kind=Pod"
    Name: "", Namespace: "default"
    Object: &{map["apiVersion":"v1" "kind":"Pod" "metadata":map["annotations":map["kubectl.kubernetes.io/last-applied-configuration":""] "labels":map["role":"web-frontend"] "namespace":"default"] "spec":map["containers":[map["image":"nginx" "name":"web" "ports":[map["containerPort":'P' "name":"web"]] "volumeMounts":[map["mountPath":"/usr/share/nginx/html" "name":"nfs"]]]] "volumes":[map["name":"nfs" "persistentVolumeClaim":map["claimName":"nfs"]]]]]}
    from server for: "test-pod-pvc.yaml": resource name may not be empty
    ```
    需要给metadata加一个name,例如:
    ```

    apiVersion: v1
    kind: Pod
    metadata:
      labels:
        role: web-frontend
      name: web-frontend
    ```
    不知道是不是kubernetes版本的差异。
    2019-06-11
  • 王天明
    实验了一下,成功了。有一个问题,创建出来的pv是动态的,可以看到pv命名上有自己的规则,那么是不是PVC的定义不变,绑定的pv就一直是同一个pv吧?即使是在新的不同容器里使用同一个PVC。


    另外,是不是可以先想办法基于一个PVC生成一个pv,再从外面copy文件进去pv? 这样就可以达到备份或迁移的目的了。
    2019-03-16
  • Vampire_D
    老师,遇到一个问题,删除PVC之后,pv状态变成released 状态,这个时候即使新建相同的PVC也是不能bound的,必须要删除重建pv之后才能重新被pvc bound,然而还看到说重新建相同的pv还有可能引起数据污染,这样的设计是否与持久化的想法相矛盾
    2019-03-13
  • 小熹
    用CSI标准实现第三方存储,把存储卷的管理全部托付给第三方,就不用自己纠结pv pvc的概念了
    2018-12-20
  • 初学者
    文中提到attach 阶段是将远程盘挂载到宿主机上,这个操作不是应该在node 上做更合适吗?为啥会放在AD controller 中?

    作者回复: 文中已经解释了啊,这跟node没关系

    2018-12-08
  • ꧁༺宏杰༻꧂
    老师你好,我在azure上创建一个存储账户了。我现在有几个问题。第一,我尝试用azure存储账号提供的nfs做为pv。但是遇到了不在中国的api。中国使用的是core.chinacloudapi.cn.而k8s默认使用的是core.windows.net.请问需要在什么地方加参数值是中国的api呢?第二。能否可以直接使用azure的存储账号当作存储类呢?我google查了好久都搞不明白。求老师解答下。
    2018-12-08
  • 夕月
    所谓将一个 PV 与 PVC 进行“绑定”,其实就是将这个PV 对象的名字,填在了 PVC 对象的 spec.volumeName 字段上,这个好像在yaml文件里没有提现啊,只有storageClassName是一样的

    作者回复: 你把api对象和yaml文件搞混了?

    2018-11-25
  • 小伟
    看到前面留言说:
    exit status 2. rbd: error opening pool 'replicapool': (2) No such file or directory -- 这个报错,我有遇到类似的问题,解决方法:在 rook-operator.yml 里添加
    env:
    - name: FLEXVOLUME_DIR_PATH
      value: "/var/lib/kubelet/volumeplugins"
    确保与kubelet 的--volume-plugin-dir一样。重新apply.重启kubelet.把rook-agent 和 rook-operator的pod删除,自动重建后等10分钟我的报错就消失了。
    2018-11-20
  • jkmzg
    请问下从同一个pod spec 创建出来的不同pod中,pvc相同,会不会冲突?k8s的机制是什么呢?

    作者回复: 带id,不冲突

    2018-11-13
收起评论
30
返回
顶部