关于程序员:聊一聊并行文件系统的客户端优化之道

6次阅读

共计 3327 个字符,预计需要花费 9 分钟才能阅读完成。

简介:对于文件存储 CPFS:文件存储 CPFS (Cloud Parallel File Storage)是阿里云齐全托管、可扩大的并行文件存储系统,针对高性能计算场景的性能要求进行了深度优化,提供对数据毫秒级的拜访和百万级 IOPS 的数据读写申请,专一于 AI 深度训练、主动驾驶、基因计算、EDA 仿真、石油勘探、气象剖析、机器学习、大数据分析以及影视渲染等业务场景。
立刻观看→存储系列产品公布:文件存储 CPFS 新能力公布

并行文件系统作为文件存储的一个高性能分支,自呈现以来曾经走过了二十个年头,始终被大规模利用于气象预测、石油勘探、高能物理、汽车制作、芯片制作、主动驾驶、影视渲染等高性能计算畛域。在 AI 时代下,GPU 并行计算热火朝天,阿里云 CPFS 也正式演进到了 2.0 时代,并且对传统并行文件系统的技术体系有了一系列翻新和实际。

一、并行文件系统的演进之路

传统的并行文件系统诞生于二十一世纪初的 CPU+ 物理机时代,直到二十一世纪的第二个十年的到来。2012 年,Alex Krizhevsky(前谷歌计算机科学家)利用深度学习 +GPU 的计划,一举博得 Image Net LSVRC-2010 图像识别大赛,并奇迹般地将辨认成功率从 74% 晋升到 85%。GPU 从此一战成名,凭借本身海量流处理器和矢量处理单元成为了 AI 计算的首选加速器。GPU 芯片的算力从 V100 到 A100 再到 H100,实现了成倍的增长,对数据吞吐量的需要也成倍增长,甚至一度超出了 PCI- E 总线的能力。

与此同此,随着容器 K8S 平台的逐步成熟,AI 训练的运行平台曾经由过来的虚拟机 + 物理机转向为容器 + 云计算平台。这样的时代背景下,传统的并行文件系统也面临了极大的挑战。

本系列文章会从以下几个方面,与大家分享阿里云 CPFS 是如何应答这些挑战以及对并行文件系统的技术摸索与落地实际:

从专属客户端到 NFS 标准协议服务
从文件存储自闭环到拥抱云上数据湖的凋谢生态
从 CPU 大文件计算到 GPU 小文件计算
快、再快一点 — 服务端缓存和计算端缓存的进化

本期咱们会具体介绍 CPFS 在客户端侧的轻量化改革。

二、专属客户端的问题所在

家喻户晓,因为世纪初 NFS 等通用协定的不欠缺,传统的并行文件系统都设计并提供了专属客户端,能够说专属客户端是高性能并行文件系统的身份象征。

专属客户端是并行文件系统实现高性能的重要组成部分,专属客户端对于并行文件系统至关重要,不仅提供了 MPI-IO 接口、多后端服务器连贯能力、负载平衡能力,局部专属客户端还能够提供单机数据缓存能力。然而随着容器时代的到来,专属客户端显示出了他的诸多问题:

首先,重客户端多采纳内核态,这就引起与操作系统深度绑定。在世纪初,业余的 HPC 利用无限,多为业余公司开发并运行于超算核心,重客户端看起来不是个问题。然而随着 AI 时代的到来,GPU 利用开发百花齐放,开发者习惯不同,限度操作系统或内核版本变成了一个微小的门槛。

其次,弹性容器带来极速的利用部署能力和弹性扩缩容能力,将计算资源利用率晋升至极致。专属客户端较慢的部署速度和较多的软件依赖,升高了利用部署速度,限度了容器的弹性能力。

再次,面向利用的数据管理取代面向物理机的数据管理。容器时代,用户业务的应用界面从物理机和虚拟机上移至利用,重客户端将整个文件系统视为对立的命名空间,只能通过传统的 ACL 形式进行简单权限配置,且无奈通过动静和动态 PV 和容器 K8S 实现联动,实现容器内利用拜访数据的完满隔离。

三、轻量化 NFS 客户端的新思路

要解决专属客户端的问题,就须要对客户端进行“瘦身”,实现 NFS 协定端的轻量化。通过操作系统解耦,让所有 Linux 零碎都能够轻松应用 CPFS,解放开发者,其次,施展分布式文件系统的高性能劣势,最初,实现 K8S 弹性 PV,以及 PV 间严格数据隔离,具体形式包含以下三个方面:

1、基于 NFS 协定实现轻量化端接入

NFS 是文件存储畛域应用最广的协定,具备成熟的通用型、易用性,为宽广使用者承受。为了升高 CPFS 的应用门槛,CPFS 须要兼容 NFS。

传统的并行文件系统重客户端往往指定操作系统、内核版本,内核版本升级后客户端还须要重新安装,运维老本高,而 CPFS-NFS 客户端是用户态的,不依赖内核版本,这带来两个益处:一是反对所有支流操作系统,CPFS-NFS 客户端反对 Alibaba Cloud Linux、CentOS、Ubuntu、Debian 等,二是当用户操作系统降级后,CPFS-NFS 客户端无需降级可持续应用。

传统的并行文件系统客户端须要简单的配置能力达到较好的运行成果,例如 Lustre 须要对网络组件 LNET、元数据组件 MDC、数据组件 OSC 进行并发度、块大小等配置,减少了用户的保护老本。CPFS-NFS 客户端应用简略,只须要一条 mount 挂载命令即可,客户端的默认配置由 CPFS-NFS 客户端自行实现,升高用户应用门槛。

并行文件系统通常将文件系统逻辑上移到客户端上实现,例如 Lustre 的 OSC 须要感知文件分片(stripe)位于哪些存储服务器能力读取数据,这减少了客户端上 CPU、内存的资源开销。CPFS-NFS 客户端的资源开销是轻量的,只用于传输数据和必要的元数据操作,CPU 开销通常小于一个逻辑核。

2、优化协定实现保障端接入的高性能

借助 CPFS 并行 I /O、全对称的分布式架构提供的底座能力,NFS 协定端同样具备高吞吐、高 IOPS 的集群性能,远超传统 NAS 单机架构带来的性能指标。例如 200MB/s/TiB 规格下,NFS 协定端也提供每 TiB 容量兑付 200MB/ s 吞吐的性能指标,最大吞吐是 20GB/s,最大可靠近 100 万 IOPS。

NFS 协定服务组成协定集群,依据 CPFS 文件系统容量同步横向扩大。CPFS-NFS 客户端与协定节点之间具备负载平衡的能力,在客户端挂载时可依据协定节点负载(连接数、闲暇带宽、CPU 等)抉择最佳的协定节点建设连贯,无效的防止热点、胖客户端挤兑单个协定节点带来的性能降落。

3、提供多种挂载形式大规模挂载的反对与目录级挂载点

为了满足 K8S 弹性 PV 的需要,同时实现 PV 间严格数据隔离,CPFS 反对了多种挂载形式,具体包含:

大规模容器挂载
传统的并行文件系统客户端上通常会保留状态,这导致客户端规模无限,例如客户端上保留关上的文件、读写锁等状态,为保证数据一致性,客户端之前相互做状态的颁发、召回等操作。客户端规模越大,客户端之间的交互、耗费的资源更多,这限度了客户端的规模。

CPFS-NFS 客户端是无状态的,客户端只与存储节点连通,不会随客户端规模增大而减轻客户端的负载。CPFS-NFS 客户端反对 10000 个客户端 /POD 同时挂载拜访数据。

CSI 插件,反对动态、动静卷
CPFS-NFS 客户端与阿里云容器服务(ACK)深度集成,CSI 反对动态存储卷挂载和动静存储卷挂载两种形式挂载 CPFS 存储卷。详情见 CPFS 动态卷,CPFS 动静卷。

目录级挂载点
目录级挂载点提供端上拜访隔离的能力,容器挂载时仅挂载子目录,避免容器利用间接拜访整个文件系统,引起数据安全问题。通过应用 Fileset 和 ACL,CPFS 能提供更强的目录隔离:后续 Fileset 反对配额,可配置目录子树的文件数量、总容量;ACL 可配置用户的拜访权限。

总结

目前,CPFS 的规范 NFS 协定拜访模式曾经凋谢。帮忙一些原有因为操作系统版本原有无奈应用云上 CPFS 的客户实现了业务弹性上云。同时,联合阿里云容器 ACK 服务,为客户提供了秒弹几百个 POD 的动静伸缩能力,实现了忙时疾速扩容,闲时疾速开释,升高 GPU 资源闲置老本。

文件存储 CPFS 在反对 NFS 协定上的能力的重要晋升,意味着无论是容器还是虚拟机,无论是哪种 Linux 版本,都能够轻松拜访高性能的 CPFS 并行文件系统,这无疑有助于减速主动驾驶场景落地。欲了解更多,可移步 https://yqh.aliyun.com/live/d… 预约直播。

前面,咱们还会持续分享 CPFS 在数据湖生态交融、小文件计算、缓存技术等方面的技术进化,心愿能继续关注此系列文章。
原文链接:http://click.aliyun.com/m/100…

本文为阿里云原创内容,未经容许不得转载。

正文完
 0