共计 1270 个字符,预计需要花费 4 分钟才能阅读完成。
IT 架构的一个发展趋势和技术挑战,就是如何将越来越多的利用运行在灵便、可扩大的对立平台上,同时还必须晋升治理和运行的效率。泛滥的利用运行在同一个资源池中的模式,和以往各个利用具备各自独立的物理计算 + 存储资源的运行模式有着很大的不同。其中一点不同就是,在以往的 IT 架构中,各个利用所需的存储容量、性能都是依据其须要独立配置的,很少存在资源抢占的问题。而当泛滥利用运行在同一个平台上时,不同利用对存储资源的性能存在抢占的危险,如何对之进行管制和躲避,就是存储的 QoS(Quality of Service)管制。
那么 QoS 具体指的是什么?为什么它对业务如此重要?
QoS 是为了提供稳固的性能保障
QoS 对企业或者服务运营商来说是一个至关重要的技术,尤其对那些须要为下层业务提供继续稳固的存储性能的场景而言更是如此。当大量利用共享无限的资源,QoS 能帮忙系统控制各个利用如何应用这些资源,最重要的是,能限度并防止那些高耗费或者运行异样的程存储 QoS 包含业务对存储所需的 IOPS、带宽等性能的治理和管制。如果没有存储 QoS,系统管理员就无奈对各个利用对存储的性能耗费进行治理,高耗费的利用可能抢占大量的存储性能,而让其它利用“活活饿死”。传统 IT 架构在 QoS 的问题上并没有那么急切,因为在传统架构中,大多的利用零碎都是独占本人的一套存储。云、容器时代的到来,把 QoS 推到了不得不器重的高度,因为大量虚拟机、容器都须要共享同一套存储资源。
存储 QoS 能用于缓解、管制并打消对存储资源性能的抢占,为零碎提供一个存储性能可预测、可管制、可治理的运行环境。
那么,容器平台长久化存储的 QoS 呢?
既然 QoS 如此重要,并且在 SDS 和以虚拟机为核心的 IaaS 平台中,存储的 QoS 曾经成为标配性能,那么在大行其道的容器平台上,QoS 管制是什么情况呢?
十分遗憾,容器编排霸主 K8S 目前只是反对了对 CPU、内存这两个计算资源的 QoS 管制,还不反对对长久化存储进行 QoS 设置。
对于如此重要的需要焱融云当然不会束之高阁,咱们依据理论利用场景及客户诉求,对 QoS 性能进行了深刻开发。
K8S 如何集成焱融高性能容器存储的 QoS 性能?
装置了焱融高性能容器存储以及插件后,要创立含有 QoS 性能的 Persistent Volume 只需一步(以 FlexVolume 插件形式为例),在创立 PV 的 yaml 文件中加上对这个 PV 的 IOPS(或带宽 BW)的设置即可,如下图红框中所示:
随后执行 K8S 创立 PV 的命令,即可创立带有 QoS 限度的长久化存储,通过焱融高性能存储提供的工具,即可查问所有 QoS 设置,如下图所示:
成果如何,一试便知,下图别离对 QoS 和带宽(BW)进行了测试,容器中的长久化存储 IOPS 和带宽被牢牢限度在用户设定的阈值:
IOPS
带宽
更多黑科技
容器长久化存储 QoS 管制的终极目标,是帮忙容器平台向着更高效、集成度更高、性能高强的演进,进一步升高平台运维团队管理负担,晋升业务可用性。QoS 只是焱融高性能容器存储泛滥杀手锏中的一个,焱融云从未停下翻新的脚步。更多的黑科技,待咱们后续一一贯您道来。