服务器数据恢复环境:
ORACLE-SUN-ZFS 存储服务器;
Windows 操作系统;
zfs 文件系统;
4 个组,每组 8 块硬盘;
热备盘全副启用。
服务器数据恢复故障:
服务器失常运行时突发故障无奈失常工作,服务器管理员重启服务器无奈进入零碎,分割北亚数据恢复核心对服务器内的数据进行数据恢复。
北亚数据恢复工程师拿到服务器后,和服务器管理员沟通后,确定服务器故障不是因为断电、进水、异样操作或者其余内部因素造成的。
服务器数据恢复过程:
1、服务器故障剖析。
在 ZFS 文件系统中,池被称为 ZPOOL。ZPOOL 的子设施能够有很多品种,包含块设施、文件、磁盘等,故障服务器中的 ZFS 文件系统采纳的是三组 RAIDZ 作为子设施。
通过剖析发现,三组 RAIDZ 内有两组启用热备盘,个数别离为 1 和 3。在启用热备盘后,第一组内呈现一块离线盘,第二组内呈现两块离线盘。以此进行故障现场模仿:三组 RAIDZ 内第一二组别离呈现离线盘,热备盘及时进行替换;热备盘无冗余状态下第一组呈现一块离线盘,第二组呈现两块离线盘,ZPOOL 进入高负荷状态(每次读取数据都须要进行校验失去正确数据);第二组内呈现第三块离线盘,RAIDZ 解体、ZPOOL 下线、服务器解体。
2、重组 ZPOOL,追踪数据入口。
ZFS 治理的存储池与惯例存储不同,所有磁盘都由 ZFS 进行治理。惯例 RAID 在存储数据时,只依照特定的规定组建池,不关怀文件在子设施上的地位。而 ZFS 在数据存储时会为每次写入的数据调配适当大小的空间,并计算失去指向子设施的数据指针。这种个性使得 RAIDZ 缺盘时无奈间接进行校验失去数据,必须将整个 ZPOOL 作为一个整体进行解析。
北亚数据恢复工程师手工截取事务块数据,编写程序获取最大事务号入口:
获取文件系统入口
获取到文件系统入口后,北亚数据恢复工程师编写数据指针解析程序进行地址解析:
解析数据指针
获取到文件系统入口点在各磁盘散布状况后,北亚数据恢复工程师手工截取并剖析文件系统内部结构。因为入口散布所在的磁盘组无缺失盘,可间接提取信息。依据 ZFS 文件系统的数据存储构造顺利找到原服务器映射的 LUN 名称,进而找到其节点。
3、编写数据提取程序并运行。
通过仔细分析,北亚数据恢复工程师发现故障服务器中的 ZFS 版本与开源版本有较大差异,无奈应用北亚数据恢复核心以前开发的解析程序进行解析,所以从新编写了数据提取程序。
因为磁盘组内缺盘个数较多,每个 IO 流都须要通过校验失去,提取进度极为迟缓。与服务器管理员沟通后得悉 ZVOL 卷映射到 XenServer 作为存储设备,所需复原的文件在其中一个大小约为 2T 的 vhd 内。北亚数据恢复工程师提取 ZVOL 卷头部信息,依照 XenStore 卷存储构造进行剖析,发现 2T vhd 在整个卷的尾部,计算失去其起始地位后从此地位开始提取数据。
4、验证复原数据。
Vhd 提取结束后,北亚数据恢复工程师对其外部的压缩包及图片、视频等文件进行验证,文件都能够失常关上应用。
分割服务器管理员验证数据,确定文件数量与零碎自动记录的文件个数统一,文件都可失常关上,服务器数据恢复胜利。