• shadow
    2018-10-26
    容器持久化存储涉及的概念比较多,试着总结一下整体流程。

    用户提交请求创建pod,Kubernetes发现这个pod声明使用了PVC,那就靠PersistentVolumeController帮它找一个PV配对。

    没有现成的PV,就去找对应的StorageClass,帮它新创建一个PV,然后和PVC完成绑定。

    新创建的PV,还只是一个API 对象,需要经过“两阶段处理”变成宿主机上的“持久化 Volume”才真正有用:
    第一阶段由运行在master上的AttachDetachController负责,为这个PV完成 Attach 操作,为宿主机挂载远程磁盘;
    第二阶段是运行在每个节点上kubelet组件的内部,把第一步attach的远程磁盘 mount 到宿主机目录。这个控制循环叫VolumeManagerReconciler,运行在独立的Goroutine,不会阻塞kubelet主循环。

    完成这两步,PV对应的“持久化 Volume”就准备好了,POD可以正常启动,将“持久化 Volume”挂载在容器内指定的路径。
    展开

    作者回复: 总结的好!后面还有更多概念!

    
     82
  • Eurica
    2018-10-29
    “所谓将一个 PV 与 PVC 进行“绑定”,其实就是将这个 PV 对象的名字,填在了 PVC 对象的 spec.volumeName 字段上。”
    请问老师为什么在pvc的yaml文件中看不到这个字段呢?

    作者回复: 看它的api types定义

    
     5
  • GR
    2018-10-26
    一个pv可以对应几个pvc,一对一吗?
    可以创建一个大的pv然后每个应用有自己的pvc,存储路径通过subpath来区分,是否可行呢?
     3
     5
  • Geek_89bbab
    2018-11-11
    kubectl describe persistentvolumeclaim/claim1
    Name: claim1
    Namespace: default
    StorageClass: block-service
    Status: Pending
    Volume:
    Labels: <none>
    Annotations: .......
    Events:
      Type Reason Age From Message
      ---- ------ ---- ---- -------
      Warning ProvisioningFailed 10m (x13 over 23m) ceph.rook.io/block rook-ceph-operator-5bfbf654db-ncgdf 97142e78-de86-11e8-a7d1-e6678be2ea25 Failed to provision volume with StorageClass "block-service": Failed to create rook block image replicapool/pvc-5b68d13b-e501-11e8-8b01-00163e0cf240: failed to create image pvc-5b68d13b-e501-11e8-8b01-00163e0cf240 in pool replicapool of size 2147483648: Failed to complete '': exit status 2. rbd: error opening pool 'replicapool': (2) No such file or directory
    . output:
      Normal Provisioning 5m (x15 over 23m) ceph.rook.io/block rook-ceph-operator-5bfbf654db-ncgdf 97142e78-de86-11e8-a7d1-e6678be2ea25 External provisioner is provisioning volume for claim "default/claim1"
      Normal ExternalProvisioning 2m (x331 over 23m) persistentvolume-controller waiting for a volume to be created, either by external provisioner "ceph.rook.io/block" or manually created by system administrator

    老师,这个是什么原因导致的? 没有这个文件或者目录?
    展开
     1
     3
  • Geek_e2f5e1
    2019-04-09
    老师,如果我原先存储上就有数据需要挂载进去,那格式化操作岂不是不能满足我的需求?

    作者回复: 格式化前肯定要检查啊,只有raw格式才需要格式化

    
     2
  • tuxknight
    2018-10-28
    在公有云上使用 PV/PVC 有个很重要的限制:块存储设备必须和实例在同一个可用区。在 Pod 没被创建的时候是不确定会被调度到哪个可用区,从而无法动态的创建出PV。这种问题要怎么处理?

    作者回复: scheduler里的volumezonechecker规则了解一下。

    
     2
  • huan
    2018-10-28
    老师的问题的思考,90%都是动态申请存储的,所以我觉得pv和pvc都去掉,只有storage class和必要的参数(空间大小和读写属性 )放在pod中即可
    
     2
  • A-
    2018-10-27
    张老师,问一个比较空泛的问题。您之前是做paas平台的,今后的pass平台的发展方向是什么呢?当前做paas平台,最大的阻碍是什么?最大的价值又是什么呢?

    作者回复: paas最后就是各家基于kubernetes DIY。这样多好。

    
     2
  • 虎虎❤️
    2018-10-26
    @GR 是一一对应的关系,可以创建一个大的pvc共用,用子目录区别开。前提是在一个namespace下。
    也可以开发插件,支持动态创建pv
    
     2
  • 小熹
    2018-12-20
    用CSI标准实现第三方存储,把存储卷的管理全部托付给第三方,就不用自己纠结pv pvc的概念了
    
     1
  • jssfy
    2018-11-25
    请问
    1. 同一集群的多个pod可否同时挂载同一个pv的同一个subpath
    2. 如果pv写满了如何扩容

    作者回复: 要看存储插件是否支持。pv只是逻辑概念,你的数据是在远程存储里的,所以resize是存储插件的功能。

    
     1
  • jkmzg
    2018-11-13
    请问下从同一个pod spec 创建出来的不同pod中,pvc相同,会不会冲突?k8s的机制是什么呢?

    作者回复: 带id,不冲突

    
     1
  • Geek_89bbab
    2018-11-11
    有人执行pvc有遇到这样的错误吗?
    Failed to provision volume with StorageClass "rook-ceph-block": Failed to create rook block image replicapool/pvc-0574eb19-e58c-11e8-8b01-00163e0cf240: failed to create image pvc-0574eb19-e58c-11e8-8b01-00163e0cf240 in pool replicapool of size 2147483648: Failed to complete '': exit status 2. rbd: error opening pool 'replicapool': (2) No such file or directory
    
     1
  • yulibaozi
    2018-10-30
    你好,我想请教下实际中的疑问点,如果我使用NFS作为共享存储,两个集群中的PV绑定NFS的同一目录,且这两个PV被pvc绑定,最终pod绑定pvc,当第二个pod绑定时会格式化nfs的目录,导致之前的pod数据丢失么?两个集群的pv能共用一个nfs目录和同一rbd么?

    作者回复: volumeMounts有个subpath字段了解一下。可以,但不建议。

    
     1
  • IOVE.-Minn
    2018-10-26
    请问,现在的NFS也是有storageclass也是可以动态配置pv的啊,但是在官方,体现的是没有的啊?这个是第三方开发的么?provisioner: fuseim.pri/ifs

    作者回复: 是啊,都是第三方的

    
     1
  • 耀
    2019-12-29
    没有过度设计,如果没有PVC,那么用户声明就会有涉及到具体的存储类型;存储类型一旦变化了所有的微服务都要跟着变化,所以PVC和PV要分离。如果没有storageclass,那么PVC和PV的绑定就需要完全有人工去指定,这将会成为整个集群最重复而低效的事情之一,所以这种设计是刚好的设计。
    
    
  • xishuai
    2019-12-23
    老师好,请问如果整个环境使用一套存储集群,是否存在性能问题?谢谢
    
    
  • 拉欧
    2019-11-16
    总结一下,持久化宿主机目录包含两个部分:
    1、挂载磁盘
    2、挂载目录
    感觉完全就是linux上文件系统的玩法
    
    
  • Dem
    2019-06-11
    直接使用范例中的web-frontend的yaml进行kubectl apply -f的时候会遇到报错:
    ```
    error: error when retrieving current configuration of:
    Resource: "/v1, Resource=pods", GroupVersionKind: "/v1, Kind=Pod"
    Name: "", Namespace: "default"
    Object: &{map["apiVersion":"v1" "kind":"Pod" "metadata":map["annotations":map["kubectl.kubernetes.io/last-applied-configuration":""] "labels":map["role":"web-frontend"] "namespace":"default"] "spec":map["containers":[map["image":"nginx" "name":"web" "ports":[map["containerPort":'P' "name":"web"]] "volumeMounts":[map["mountPath":"/usr/share/nginx/html" "name":"nfs"]]]] "volumes":[map["name":"nfs" "persistentVolumeClaim":map["claimName":"nfs"]]]]]}
    from server for: "test-pod-pvc.yaml": resource name may not be empty
    ```
    需要给metadata加一个name,例如:
    ```

    apiVersion: v1
    kind: Pod
    metadata:
      labels:
        role: web-frontend
      name: web-frontend
    ```
    不知道是不是kubernetes版本的差异。
    展开
    
    
  • 王天明
    2019-03-16
    实验了一下,成功了。有一个问题,创建出来的pv是动态的,可以看到pv命名上有自己的规则,那么是不是PVC的定义不变,绑定的pv就一直是同一个pv吧?即使是在新的不同容器里使用同一个PVC。


    另外,是不是可以先想办法基于一个PVC生成一个pv,再从外面copy文件进去pv? 这样就可以达到备份或迁移的目的了。
    
    
我们在线,来聊聊吧