关于ack:基于-ACK-Fluid-的混合云优化数据访问四将第三方存储目录挂载到-Kubernetes提升效率和标准化
前文回顾: 本系列将介绍如何基于 ACK Fluid 反对和优化混合云的数据拜访场景,相干文章请参考: 《基于 ACK Fluid 的混合云优化数据拜访(一):场景与架构》 《基于 ACK Fluid 的混合云优化数据拜访(二):搭建弹性计算实例与第三方存储的桥梁》 《基于 ACK Fluid 的混合云优化数据拜访(三):减速第三方存储的读拜访,降本增效并行》 在前一篇文章《基于 ACK Fluid 的混合云优化数据拜访(三):减速第三方存储的读拜访,降本增效并行》中,介绍如何减速第三方存储拜访,实现更好的性能,更低的老本同时升高对专线稳定性的依赖。 还有一些客户的场景下,出于历史起因和容器存储接口开发保护的老本,并没有抉择应用规范的 CSI 接口,而是应用非容器化的伎俩,比方自动化脚本。然而一旦拥抱云,就须要思考如何和基于标准接口的云服务对接的问题。 而本文将重点介绍如何通过 ACK Fluid 实现第三方存储主机目录挂载 Kubernetes 化,更加规范并减速提效。 概述有许多企业因为历史起因和技术云下存储抉择没有反对 CSI 协定,只反对以主机目录的形式通过 ansible 等运维工具挂载,一方面存在与 Kubernetes 标准化平台的对接的挑战,另一方面也须要应答与上篇文章相似的性能和老本的问题: 短少标准化,上云艰难:主机目录挂载的模式因为无奈被 Kubernetes 感知和调度,很难被容器化工作负载应用和治理。短少数据隔离性:因为整个目录都被挂载到主机上,并被所有的工作负载拜访,导致数据全局可见。数据拜访在老本,性能和可用性上有何场景 2 雷同的需要,因而不再赘述。ACK Fluid 提供了基于 JindoRuntime 的 PV 主机目录通用减速能力[1],间接反对主机目录挂载能够原生,简略,疾速,平安的取得通过分布式缓存实现数据拜访减速能力。 将传统架构迁徙到云原生适配架构:将主机目录挂载模式变动为 Kubernetes 能够治理的 CSI 协定下的 PV 存储卷,不便通过标准化协定与公共云相结合。传统架构迁徙低成本:只须要实现主机目录挂载能够立刻应用,无需额定开发;只须要在部署时刻将 Hostpath 协定转换成 PV 存储卷。数据可隔离:通过 Fluid 的子数据集模式能够隔离不同用户对于线下存储不同目录的可见性。能够提供和《基于 ACK Fluid 的混合云优化数据拜访(三):减速第三方存储的读拜访,降本增效并行》一样的性能,老本,自动化和无缓存数据落盘的长处。总结:ACK Fluid 为云上计算拜访第三方存储的主机目录挂载形式提供了开箱即用,高性能,低成本,自动化和无数据落盘的收益。 演示1.前提条件已创立 ACK Pro 版集群,且集群版本为 1.18 及以上。具体操作,请参见创立 ACK Pro 版集群[2]。已装置云原生 AI 套件并部署 ack-fluid 组件。重要:若您已装置开源 Fluid,请卸载后再部署 ack-fluid 组件。未装置云原生 AI 套件:装置时开启 Fluid 数据减速。具体操作,请参见装置云原生 AI 套件[3]。已装置云原生 AI 套件:在容器服务治理控制台的云原生 AI 套件页面部署 ack-fluid。已通过 kubectl 连贯 ACK 集群。具体操作,请参见通过 kubectl 工具连贯集群[4]。已创立须要拜访存储系统对应的 PV 存储卷和 PVC 存储卷申明。在 Kubernetes 环境中,不同的存储系统有不同的存储卷创立形式,为保障存储系统与 Kubernetes 集群的连贯稳固,请依据对应存储系统的官网文档进行筹备。2.筹备主机目录挂载点本示例中通过 sshfs 模仿第三方存储通过 fluid 转化为数据卷申明,并且对其实现拜访减速。 ...