关于nfs:openEuler-NFS协议全新发布实现NAS存储性能与可靠性倍增

4月21日,在openEuler Developer Day 2023上,openEuler公布NFS+协定,实现单客户端拜访NAS存储可靠性晋升3倍、性能晋升6倍,助力NAS存储全面满足新型生产外围场景下刻薄要求。 传统NFS面临挑战 网络文件系统(NFS)是一种分布式文件系统协定,最后由Sun公司于1984年开发,它容许客户端上的用户通过网络拜访服务端文件系统中的数据。因为其配置简略,使用方便,已广泛应用于金融数据交换平台,EDA仿真,话单,票据影像等行业。随着利用场景扩张,数据重要性一直进步,各行业对NAS存储的可靠性和性能提出了更高的诉求。传统NFS单个挂载点仅指定一个服务端IP地址,在应用过程中面临以下挑战: 首先,在网口故障或者链路故障场景下,挂载点无法访问,导致业务IO挂死,可靠性有余; 其次,NAS存储部署于公共区,主机拜访须要跨三层组网,一端故障时IP无奈感知,以后依附应用层手动挂载文件系统,双活链路无奈主动切换。 再次,单个挂载点性能受限于单个物理链路性能,重要业务存在性能瓶颈。 基于openEuler操作系统的NFS多路径技术原理 生产NAS存储应用NFS协定,要求Client及Server端到端提供故障解决方案,以及超过本地文件系统的高性能数据共享能力。例如,在Client侧,要求链路高牢靠、并发高性能;在Server侧,要求具备权限/资源管控/灾备/平安等能力。 面对以上要害挑战,openEuler推出全新NFS+协定。NFS+协定是运行在openEuler操作系统内核中的驱动模块,蕴含NFS协定层的挂载参数治理模块和传输层多路径治理模块。NFS+通过指定多个本地IP地址和多个服务端IP地址,实现不同IP地址建设多条TCP/RDMA链路,实现多路径建链、故障复原和倒换、负载平衡等个性。 多条物理链路能力,实现单个挂载点NFS性能晋升。 最优门路算法自定义NFS+协定提供厂商自定义选路算法接口,存储服务端厂商可基于本身特点自定义最优选路算法,实现性能最优。   NFS+协定全面晋升NAS性能与可靠性 NFS+协定未修改操作系统数据面,对主机CPU资源无占用,仅在管制面新增多路径性能,实现跨控、跨设施、跨站点故障秒级主动切换,NAS存储拜访性能晋升6倍,可靠性晋升3倍。 故障切换和复原NFS+协定主动感知链路故障异样,对故障链路进行降级隔离,通过业界独创三层网络双活门路主动切换,实现上层存储故障或主机侧IO超时,跨站点AA双活被动切换,解决跨引擎生效、主机无感知问题。 故障切换:NFS+协定发现链路故障时会主动将IO切换到其余可用链路上,实现链路故障IO无感知。故障复原:NFS+协定可自动检测链路状态,在链路故障复原后主动将I/O从新下发到该门路。<!----> 链路负载平衡NFS+通过网卡端口/多网卡/多节点聚合,晋升主机并发拜访能力。NFS+协定为NFSv3协定提供根本的Round Robin选路算法,实现单个挂载点在多条链路上平衡下发IO,充分利用 面对新场景、新业务、新需要,企业须要及时响应疾速变动的用户需要,能力在强烈的竞争中放弃当先。openEuler将联结社区搭档与开发者继续共建NAS生态,打造性能、可靠性倍增的NFS+协定,助力NAS存储性能及可靠性全面晋升,提供高牢靠、高性能、易运维的NAS存储解决方案,减速数字化转型。

April 26, 2023 · 1 min · jiezi

关于nfs:NFS服务详解

一.NFS概述1.概述NFS是一种基于TCP/IP 传输的网络文件系统协定。通过应用NFS协定,客户机能够像拜访本地目录一样拜访近程服务器中的共享资源NAS存储: NFS服务的实现依赖于RPC (Remote Process Call,远端过程调用)机制,以实现近程到本地的映射过程。在Centos 7零碎中,须要装置nfs-utils、 rpcbind 软件包来提供NFS共享服务,前者用于NFS共享公布和拜访,后者用于RPC反对。手动加载NFS共享服务时,应该先启动rpcbind, 再启动nfs。nfs端口:2049RPC端口:111w2.特点采纳TCP/IP传输网络文件安全性低简略易操作适宜局域网环境 二.NFS工作原理NFS服务器能够让PC将网络中的NFS服务器共享的目录挂载到本地端的文件系统中,而在本地端的零碎中来看,那个近程主机的目录就如同是本人的一个磁盘分区一样,在应用上相当便当; 2.1NFS工作流程 1.首先服务器端启动RPC服务,并开启111端口2.服务器端启动NFS服务,并向RPC注册端口信息3.客户端启动RPC(portmap服务),向服务端的RPC(portmap)服务申请服务端的NFS端口4.服务端的RPC(portmap)服务反馈NFS端口信息给客户端。5.客户端通过获取的NFS端口来建设和服务端的NFS连贯并进行数据的传输。 2.2挂载原理 当咱们在NFS服务器设置好一个共享目录/opt后,其余的有权拜访NFS服务器的NFS客户端就能够将这个目录挂载到本人文件系统的某个挂载点,这个挂载点能够本人定义,如上图客户端A与客户端B挂载的目录就不雷同。并且挂载好后咱们在本地可能看到服务端/opt的所有数据。 三.NFS服务部署3.1常用命令 罕用选项 形容rw 容许读写ro 只读sync 同步写入async 先写入缓冲区,必要时才写入磁盘,速度快,但会丢数据subtree_check 若输入一个子目录,则nfs服务将查看其父目录权限no_subtree_check 若输入一个字目录,不查看父目录,提高效率no_root_squash 客户端以root登录时,赋予其本地root权限oot_squash 客户端以root登录时,将其映射为匿名用户all_squash 将所有用户映射为匿名用户 exportfs -v //查看具体的nfs信息exportfs -r //重读配置文件showmount -e //查看本机公布的NFS共享目录showmount -e +IP //查看IP地址公布的NFS共享目录mount -t nfs 192.168.48.6:/opt /mnt //将NFS服务端192.168.48.6下的/opt挂载到/mnt下rpcinfo -p localhost //查看rpc注册的端口信息 3.2服务器端配置我应用的是两台3a服务器,带宽比拟高,yum装置老快了。 1.查看并装置软件rpm -q rpcbind nfs-utilsyum install -y rpcbind nfs-utils2.创立共享目录vim /etc/exports //NFS的配置文件,默认文件内容为空(无任何共享)/opt 192.168.48.0/24(rw,sync,no_root_squash)//设置/opt为共享目录,容许192.168.48.0网段的IP地址主机拜访3.启动服务systemctl start rpcbind //肯定要先开启rpcbind服务systemctl start nfs //如服务已启动,更改完配置信息后须要重启服务 查看服务端的共享目录及网段 查看服务端的nfs详细信息 3.3客户端配置1.1.查看并装置软件rpm -q rpcbind nfs-utilsyum install -y rpcbind nfs-utilssystemctl start rpcbindsystemctl start nfs2.将共享目录挂载到本地 ...

August 16, 2022 · 1 min · jiezi

关于nfs:k8s中使用nfs共享存储

长久卷应用(nfs存储数据)Kubernetes 为了使应用程序及其开发人员可能失常申请存储资源,防止解决存储设施细节,引入了 PV 和 PVC。创立 PV 有两种形式: 集群管理员通过手动形式动态创立利用所须要的 PV;用户手动创立 PVC 并由 Provisioner 组件动态创建对应的 PV。搭建nfs服务器(ip:192.168.0.29)找一台服务器搭建nfs服务端, 我以centos7为例 装置nfsyum -y install nfs-utils#创立nfs目录mkdir -p /nfs/data/#批改权限chmod -R 777 /nfs/data#编辑export文件vim /etc/exports/nfs/data *(rw,no_root_squash,sync) (“*“代表所有人都能连贯,倡议换成具体ip或ip段,如192.168.20.0/24)#配置失效exportfs -r#查看失效exportfs#启动rpcbind、nfs服务systemctl restart rpcbind && systemctl enable rpcbindsystemctl restart nfs && systemctl enable nfs#查看 RPC 服务的注册情况rpcinfo -p localhost#showmount测试showmount -e 192.168.92.56#所有node节点装置nfs客户端yum -y install nfs-utilssystemctl start nfs && systemctl enable nfs1.动态创立PV卷增加pv卷对应目录,这里创立2个pv卷,则增加2个pv卷的目录作为挂载点。#nfs服务器操作#创立pv卷对应的目录mkdir -p /nfs/data/pv001mkdir -p /nfs/data/pv002#配置exportrsvim /etc/exports/nfs/data *(rw,no_root_squash,sync)/nfs/data/pv001 *(rw,no_root_squash,sync)/nfs/data/pv002 *(rw,no_root_squash,sync)#配置失效exportfs -r#重启rpcbind、nfs服务systemctl restart rpcbind && systemctl restart nfs第一步:集群管理员创立 NFS PV,NFS 属于 K8s 原生反对的 in-tree 存储类型。yaml 文件如下: ...

October 9, 2021 · 3 min · jiezi

关于nfs:k8s使用nfs存储数据

1. 名词解释in-tree:代码逻辑在 K8s 官网仓库中;out-of-tree:代码逻辑在 K8s 官网仓库之外,实现与 K8s 代码的解耦;PV:PersistentVolume,集群级别的资源,由 集群管理员 or External Provisioner 创立。PV 的生命周期独立于应用 PV 的 Pod,PV 的 .Spec 中保留了存储设备的详细信息;PVC:PersistentVolumeClaim,命名空间(namespace)级别的资源,由 用户 or StatefulSet 控制器(依据VolumeClaimTemplate) 创立。PVC 相似于 Pod,Pod 耗费 Node 资源,PVC 耗费 PV 资源。Pod 能够申请特定级别的资源(CPU 和内存),而 PVC 能够申请特定存储卷的大小及拜访模式(Access Mode);StorageClass:StorageClass 是集群级别的资源,由集群管理员创立。SC 为管理员提供了一种动静提供存储卷的“类”模板,SC 中的 .Spec 中具体定义了存储卷 PV 的不同服务质量级别、备份策略等等;CSI:Container Storage Interface,目标是定义行业标准的“容器存储接口”,使存储供应商(SP)基于 CSI 规范开发的插件能够在不同容器编排(CO)零碎中工作,CO 零碎包含 Kubernetes、Mesos、Swarm 等。2. 组件介绍PV Controller:负责 PV/PVC 绑定及周期治理,依据需要进行数据卷的 Provision/Delete 操作;* AD Controller:负责数据卷的 Attach/Detach 操作,将设施挂接到指标节点;Kubelet:Kubelet 是在每个 Node 节点上运行的次要 “节点代理”,性能是 Pod 生命周期治理、容器健康检查、容器监控等;Volume Manager:Kubelet 中的组件,负责管理数据卷的 Mount/Umount 操作(也负责数据卷的 Attach/Detach 操作,需配置 kubelet 相干参数开启该个性)、卷设施的格式化等等;Volume Plugins:存储插件,由存储供应商开发,目标在于扩大各种存储类型的卷治理能力,实现第三方存储的各种操作能力,即是下面蓝色操作的实现。Volume Plugins 有 in-tree 和 out-of-tree 两种;External Provioner:External Provioner 是一种 sidecar 容器,作用是调用 Volume Plugins 中的 CreateVolume 和 DeleteVolume 函数来执行 Provision/Delete 操作。因为 K8s 的 PV 控制器无奈间接调用 Volume Plugins 的相干函数,故由 External Provioner 通过 gRPC 来调用;External Attacher:External Attacher 是一种 sidecar 容器,作用是调用 Volume Plugins 中的 ControllerPublishVolume 和 ControllerUnpublishVolume 函数来执行 Attach/Detach 操作。因为 K8s 的 AD 控制器无奈间接调用 Volume Plugins 的相干函数,故由 External Attacher 通过 gRPC 来调用。3. 长久卷应用(nfs存储数据)k8s应用NFS共享存储有两种形式: ...

October 9, 2021 · 1 min · jiezi

关于nfs:URLOS发布NFS文件加速功能可有效提升NFS小文件读取性能

在服务器集群的分布式环境下,多台服务器之间的文件共享的形式多见于采纳NFS,NFS是一种网络共享文件系统,它能够让计算机通过网络将远端的共享文件挂载到本机的零碎中,就像是在应用本地文件一样,然而,NFS的读取性能却饱受诟病,因为它的文件读写性能切实太慢了,如果是在分布式网站环境中采纳NFS作为文件共享存储,那么优化NFS的读取性能则是重中之重的事件。 如果采纳URLOS构建集群网站,则NFS的小文件读取性能将失去极大晋升,URLOS提供的NFS文件减速功次要是为解决第三方NFS设施读写性能瓶颈而专门研发的优化解决方案,该计划简略易用,一键开启NFS文件减速,极大晋升小 NFS文件减速到底能给网站性能带来多大的晋升? 咱们简略的进行了一个测试,硬件采纳2核4G的阿里云主机,采纳AB压力测试失去下图数据: NFS文件减速,其原理和思路基本上与CDN类型,将网站动态文件缓存到本地磁盘,晋升小文件的读取速率,从而进步网站并发能力。 对于URLOS提供的NFS文件减速性能,你怎么看? URLOS官网近期正在做618流动,如果您想体验NFS文件减速,那么千万别错过哦!! 流动页面:https://www.urlos.com/pn_2021...

June 1, 2021 · 1 min · jiezi