raid数据恢复及回迁成功案例—北亚推荐

简介:
故障发生在两块盘组成的一个raid0上,其中的一块盘亮黄灯,被raid卡踢出后,raid崩溃,下面就把当时抢救数据的整个过程进行介绍。
由于硬盘是两块SAS 300G的硬盘,先把硬盘从机器中拔出来,然后通过SAS HBA的方式直连到win的环境下,并在磁盘管理中将硬盘标记为脱机状态,以保证操作过程中是只读的,保护原始数据的安全。

在将两个硬盘底层所有扇区都镜像出来后,通过文件系统分析盘序和条带大小,使用软件虚拟重组的方式将原始raid环境搭起来后,再进一步解析ntfs文件系统后终于看到了数据,这时候新的问题出现了,如果直接把数据拷贝出来,那么原始的系统和应用都需要重新部署,而且因为没有了软件服务商的支持,实施起来有一定的难度,于是想着把搭起来的raid再完整的迁移到新的raid环境中,就可以做到和损坏前一样。这样一来就可以节省大量时间。
由于有了前车之鉴,所以在新的raid环境上吸取了上次的教训,决定使用三块盘组建raid5,即使有一块硬盘出现故障离线,raid也可以处于降级状态,不会立刻崩溃,给了使用者替换新硬盘的机会。
在安装了支持raid5的新raid卡和插了新硬盘后创建了一个raid5的卷,现在开始研究怎么把做出来的数据迁移过去
因为服务器前面板由raid卡来管理,所以直接插个新盘上去是不会在系统下直接识别的,需要在raid卡下创建raid后才可以使用,而且限于单盘容量的问题,不能采用这个方案,于是研究别的办法。因为服务器前面板有个DVD光驱,而且现在的服务器光驱和主板都是采用sata通道连接,所以可以把机盖打开使用上面的sata口,连接一块sata硬盘,在pe或者linux live cd模式下就可以回迁数据了,而且这是速度最快的方法。但是在我们准备实施的时候发现这个机器使用的sata不是标准大小接口类型,而是mini sata,因为手里没有现成的转接卡,所以这个办法也不行,其实在数据量不大的时候也可以使用USB方式去做,但是因为现在绝大部分服务器的usb还停留在USB2.0 速度太慢,对于大数据量,时间上不可接受。
最后的最后我们绝对使用一种新奇的办法回迁数据----走网络。
这时候需要先启动个linux live cd 一般我们都使用linux system rescue cd,在linux启动完成后ifconfig配置下服务器的ip,然后我们将做出来的数据放在一个win 2008 r2的机器上,在win环境下开启nfs服务(默认是关闭的)“服务管理器--角色--添加角色--勾选文件服务—勾选网络文件系统服务进行安装,第一次安装完成之后需要重启一下计算机”
1

重启完成后我们对存放镜像数据的文件夹进行操作,右键—NFS共享标签页里面勾选共享此文件夹,然后有个重点是在权限里面勾选允许根目录访问,访问类型选择读写。
2

Win端的设置完成后,我们再看下linux端的设置,ifconfig查看当前网络配置
3

因为我们需要分配个ip给他,在这里我们分配网卡“enp4s0”,ip地址分配成10.3.12.3 子网掩码为255.0.0.0,使用如下命令:ifconfig enp4s0 10.3.12.3 255.0.0.0 然后再使用ifconfig查看ip地址
4

配置好ip之后,查看一下网络是否连同,命令:ping 10.1.1.1 ,
  再查看10.1.1.1机器上的NFS共享的目录是否能够访问,命令:showmount –e 10.1.1.1,
5

源机器和目标机器现在已经连接通,在linux创建一个目录mkdir /mnt/bysjhf
  创建好之后,我们将镜像出来的数据挂载到linux下新创建的文件夹下mount 10.1.1.1:/data /mnt/bysjhf –o nolock
  挂载好之后,查看一下挂载点信息df –k
6

确定已经挂载好之后,进入这个文件夹,查看一下文件夹里的镜像文件:
  root@sysresccd /mnt/bysjhf % ls
  并查看硬盘及分区信息:fdisk –l
7
8

确认好源设备和目标设备之后,进行镜像操作:
  dd if=/mnt/bysjhf/data.img of=/dev/sda bs=10M
9

 在千兆网环境下NFS的速度能够跑到70M/S,这已经是一个很理想的速度,在等待dd完成后,我们重启ibm X3650服务器,并选择raid引导,期待的windows启动页面终于出现了,前面的辛苦没有白费,数据完整的迁移成功。

相关文章
|
4月前
|
运维 算法 数据挖掘
服务器数据恢复-服务器raid6磁盘阵列数据恢复案例
服务器数据恢复环境: 服务器上有一组由12块硬盘组建的raid6磁盘阵列,raid6阵列上层有一个lun,映射到WINDOWS系统上使用,WINDOWS系统划分了一个GPT分区。 服务器故障&分析: 服务器在运行过程中突然无法访问。对服务器进行检测后,工作人员发现服务器raid6阵列中有3块磁盘处于离线状态,于是将这3块磁盘强制上线并进行rebuild操作,但是强制上线成功后分区打不开,数据无法访问。
|
4月前
|
存储
【北亚服务器数据恢复】ZFS文件系统服务器无法进入系统的数据恢复案例
服务器数据恢复环境: 服务器中有32块硬盘,组建了3组RAIDZ,部分磁盘作为热备盘。zfs文件系统。 服务器故障: 服务器运行中突然崩溃,排除断电、进水、异常操作等外部因素。工作人员将服务器重启后发现无法进入操作系统。
【北亚服务器数据恢复】ZFS文件系统服务器无法进入系统的数据恢复案例
|
6月前
|
数据挖掘
服务器数据恢复-服务器raid0数据恢复案例
服务器故障&分析: 某公司一台服务器,共2块磁盘组建了一组raid0磁盘阵列。RAID0阵列中有1块硬盘出现故障离线,导致服务器崩溃。 通过和用户方的沟通,北亚企安数据恢复工程师初步判断:故障服务器中出现故障离线的硬盘在出厂时存在物理缺陷,经过长时间的运行后,这块硬盘非正常老化,加上外力磕碰等情况导致磁头损坏,硬盘掉线。 服务器采用的是raid0磁盘阵列,一块硬盘掉线就会导致服务器崩溃。要恢复服务器数据,物理修复掉线硬盘是关键。
|
2月前
|
存储 算法 关系型数据库
【服务器数据恢复】服务器raid6磁盘阵列数据恢复案例
一台网站服务器中有一组由6块磁盘组建的RAID6磁盘阵列,操作系统层面运行MySQL数据库和存放一些其他类型文件。
|
3月前
|
存储 Oracle 关系型数据库
【北亚企安数据恢复】服务器ZFS文件系统数据恢复案例
服务器数据恢复环境: ORACLE SUN ZFS某型号存储,共40块磁盘组建存储池,其中的36块磁盘分为三组,每组12块,单个组使用ZFS特有的RAIDZ管理所有磁盘,RAIDZ级别为2;另外的4块磁盘作为全局热备。存储池内划分出若干空间映射到服务器使用。 服务器故障: 服务器正常运行过程中崩溃,服务器管理员重启设备后无法进入系统。通过对服务器和存储的初步检测以及和管理人员的沟通,排除了断电、进水、异常操作等外部因素。
【北亚企安数据恢复】服务器ZFS文件系统数据恢复案例
|
3月前
【服务器数据恢复】服务器硬盘磁头损坏的数据恢复案例
一台服务器上raid阵列上有两块硬盘出现故障,用户方已经将故障硬盘送到其他机构检测过,其中一块硬盘已经开盘,检测结果是盘片损伤严重;另一块硬盘尚未开盘,初步判断也存在硬件故障,这两块磁盘的数据没有成功恢复。用户抱着试一试的想法将2块故障磁盘送到北亚企安数据恢复中心进行检测和数据恢复。
|
4月前
|
数据挖掘
北亚服务器数据恢复-服务器断电导致raid5数据丢失的数据恢复案例
服务器数据恢复环境: 服务器有一组由12块硬盘组建的raid5阵列。 服务器故障&分析: 机房供电不稳导致服务器意外断电,工作人员重启服务器后发现服务器无法正常使用。 根据故障情况,北亚企安数据恢复工程师初步判断服务器故障原因是意外断电导致的raid模块损坏,经过详细检测发现是异常断电导致的raid信息丢失。raid信息丢失实际上是raid模块损坏的一种情况。
|
4月前
|
存储 数据挖掘 Windows
服务器数据恢复—V7000存储raid5数据恢复案例
服务器数据恢复环境: 某品牌V7000存储中有一组由几十块硬盘组建的raid5阵列。上层操作系统为windows server,NTFS分区。 服务器故障: 有一块硬盘出现故障离线,热备盘自动上线替换离线硬盘。在热备盘上线同步数据的过程,与离线盘同一组Mdisk中又有另一块磁盘出现故障离线。热备盘同步失败,该组Mdisk失效,通用卷无法使用。
|
5月前
|
存储 Linux 数据库
服务器数据恢复—IBM存储raid5多盘损坏导致阵列崩溃的数据恢复案例
服务器数据恢复环境: IBM某型号存储,6块sas硬盘组建一组raid5,划分一个lun分配给Linux服务器并格式化为OCFS2文件系统,共享给虚拟化使用,存放的数据包括24台liunx和windows虚拟机、压缩包文件和配置文件。 服务器故障: raid5阵列中成员盘坏了多块,阵列失效,数据丢失。
服务器数据恢复—IBM存储raid5多盘损坏导致阵列崩溃的数据恢复案例
|
6月前
|
存储 固态存储 数据安全/隐私保护
北亚企安数据恢复-VSAN数据恢复方案
存储介质清单 :一共8台服务器节点,每节点2个磁盘组,其中1个磁盘组配置1块SSD固态硬盘,4块1.2T机械硬盘;另一个磁盘组配置1块SSD固态硬盘,4块2T机械硬盘。共计16块SSD固态硬盘和64块机械硬盘。 故障描述:一个节点服务器掉线,导致部分虚拟机无法访问。 期望恢复数据:恢复VSAN环境中故障虚拟磁盘数据。

相关实验场景

更多