测试:Data Domain拔得重复数据删除头筹

简介:

【WatchStor独家译文】重复数据删除技术不仅能够提高企业存储效率,而且可以减少购买磁带或者磁盘等存储设备的需求,从而进一步节省了数据中心空间、能源和冷却资源。

从广义上讲,重复数据删除是一项分析数据文件、找出和删除冗余信息块、并且采用了g-zip或者LZ等压缩算法的技术。一般来讲,那些经常被编辑但是变更很少的文件是重复数据删除的理想对象。因此,不少企业开始考虑采用重复数据删除解决方案来减少企业数据库、电子邮件、服务器信息以及虚拟机镜像的备份和归档所需的存储空间。

Data Domain是重复数据删除市场的领导者之一,所以我们就先来看一看这家厂商的产品。其他主要厂商还包括NetApp、IBM、EMC和昆腾。一般来说,对产品的概览都是将重点放在重复数据删除水平或者重复数据删除节省下原始磁盘空间的比例上的。不仅吞吐性能和易于安装性等重要指标,而且包括空间节约都是在实验室环境下(例如在几个月或者几年时间内许多用户不会同时对实时数据进行频繁而细微的变更)非常难以测量出来的。

而这次我们希望从一个不同的角度来考量重复数据删除产品。我们选择把重点放在应用的简便性和可能存在的问题、吞吐性能、可管理性以及功能特性。我们将先在位于纽约市的存储实验室进行测试,然后采访Data Domain的用户了解他们的实际应用情况,从而掌握更准确的实际重复数据删除率。我们的主要目标是评估Data Domain解决方案在多站点业务连续性方面的稳定性。

我们的测试模拟了一个拥有一个数据中心、地区总部和分支机构的企业。该分支机构将350GB内部存储备份到本地一个DD120中,地区总部将1.2TB的内部存储备份到一个DD510中,而各个部门将数据中心两个封装了10TB存储的外置驱动器备份到一个DD690中。每个设备都设计有最大冗余性的电源、NIC、光纤通道控制器以及RAID 6磁盘阵列。我们采用了两种方法,第一个是使用Symantec Veritas NetBackup软件进行本地备份,然后使用Data Domain的复制技术在不同Data Domain设备之间进行复制;第二种方法是采用Data Domain的OST来控制NetBackUp的所有备份和复制流程。我们发现一个有趣的现象,如果你的企业已经采用了NBU,那么你可以保留所有陈旧的工作和规则,只要将他们直接从磁带驱动器迁移到Data Domain驱动器中就可以了。

虽然配置过程并不简单,但是有些方面更注重企业存储技术,而不是全面IT技术。通过远程登陆或者附加KVM使用CLI来完成安装。我发现,在第一次登陆的时候是必须要更改默认密码的。我们安装了存储设备、复制和OST的许可,然后架构网络、文件系统、系统和管理设置。确认设置完成之后重启系统,再开始安装CIFS和NFS共享。

CLI可以帮助你结束命令、运行命令树以及提供帮助。然而,它仍然只是CLI,而我更倾向于选择更好一些的Web GUI。不过我认为这是Data Domain一个最主要的缺点——虽然GUI能够完成任务,但是却并不完善。我可以在一个屏幕下监控所有这三个部分的运作情况,但是在真正管理的过程中就必须使用CLI。Data Domain有关负责人表示,他们的大多数用户都是使用CLI的(这一点也在我们的调查过程中得到了证实),下一步他们将研究升级加入Web GUI的应用。

文件资料组织缜密且信息详尽,这远不会降低向数据中心增加新技术可能存在的问题。例如,我们使用扩展套件对DD510进行升级,在10分钟内配置6个250GB附加驱动器,这就组成了一个由8个磁盘构成的RAID组、一个由6个磁盘构成的RAID组以及能够被每个组使用的热备份盘。

我们的实验室测试过程中发现,重复数据删除率从5倍到99倍不等,主要取决于文件类型和相同内容备份的次数。一般来说,在你完成第一次备份之后,由于压缩的原因不会释放太多空间,然后在接下来的备份中能够节省下的空间慢慢增多。许多企业在备份、归档和业务连续性流程方面的配置与我们没有太大区别。在通过WAN连接复制之前高效重复数据删除所能节省下的成本和时间是非常惊人的。

在完成实验室测试之后,我们开始对Data Domain进行走访来了解实际应用过程中的重复数据删除率。我们采访了一家名为The Rockefeller Group的公司,这是一家提供商业地产、地产服务和电信服务的公司。该公司高级IT服务工程师Sanja Kaljanac表示,他们数据中心在DD565上可以达到100倍的数据删除率,在分支机构的DD120上可以达到67.5倍的数据删除率。在对其他Data Domain用户提供的日志文件进行分析后我们发现,压缩率从10倍到40倍不等,DD690上的最高吞吐量在每秒300~500MB之间。除了Rockefeller Group之外,其他采用了Data Domain产品的地产公司还包括Land America Financial Group and Skidmore和Owings and Merrill。

我们的实验室测试结果和实际调查结果表明,Data Domain的重复数据删除技术在站点间或者通过WAN连接的备份、恢复和归档方面具有一定的优势。考虑到维持多站点企业业务连续性所需的数据量,传统备份方法被不断完善甚至是突破了原有的局限性。DD120在分支机构的应用结合DD690或者DD510在数据中心应用不仅能够消除局限性,而且还会让你对现有业务连续性流程进行重新评估。  

  l  测试产品总价格:293540美元
l  DD690(带有扩展架的基本架构):210000美元
l  DD51019000美元
l  DD510扩展套件:13000美元
l  DD120(带有复制功能):12500美元
l  DD690复制软件许可:35000美元
l  DD510复制软件许可:2540美元
l  DD510复制软件许可:1500美元  

 
 

来源:51CTO
目录
相关文章
|
30天前
Mybatis+mysql动态分页查询数据案例——测试类HouseDaoMybatisImplTest)
Mybatis+mysql动态分页查询数据案例——测试类HouseDaoMybatisImplTest)
20 1
|
30天前
|
Java 关系型数据库 数据库连接
Mybatis+MySQL动态分页查询数据经典案例(含代码以及测试)
Mybatis+MySQL动态分页查询数据经典案例(含代码以及测试)
24 1
原生php实现列表接口+分页接口+排序接口组合使用+包括测试数据(不加任何封装)
原生php实现列表接口+分页接口+排序接口组合使用+包括测试数据(不加任何封装)
原生php实现列表接口+分页接口+排序接口组合使用+包括测试数据(不加任何封装)
|
2月前
|
计算机视觉
Google Earth Engine(GEE)——使用MODIS数据单点测试SG滤波和harmonics method 滤波的差异分析
Google Earth Engine(GEE)——使用MODIS数据单点测试SG滤波和harmonics method 滤波的差异分析
46 0
|
3月前
|
SQL 存储 数据库连接
自动生成测试数据—数据库篇
自动生成测试数据—数据库篇
|
17天前
|
人工智能 分布式计算 Kubernetes
人工智能,应该如何测试?(三)数据构造与性能测试篇
本文探讨了人工智能场景中的性能测试,区别于传统互联网测试,其复杂性更高。主要关注点包括两类AI产品——业务类和平台类,后者涉及AI全生命周期,测试难度更大。测试重点是模型训练的性能,特别是数据模拟。需要构造大量结构化数据,如不同规模、分布、分片和特征规模的数据,以评估算法效率。此外,还涉及模拟设备规模(如视频流)和节点规模(边缘计算),以测试在大规模负载下的系统性能。文中提到了使用工具如Spark、ffmpeg、流媒体服务器和Kubernetes(K8S)的扩展项目,如Kubemark,来模拟大规模环境。最后,文章介绍了使用Golang进行异步IO操作以构建海量小文件,优化IO性能。
38 0
|
1月前
|
存储 Android开发 C++
【Android 从入门到出门】第五章:使用DataStore存储数据和测试
【Android 从入门到出门】第五章:使用DataStore存储数据和测试
34 3
|
2月前
|
存储 人工智能 自然语言处理
选择最适合数据的嵌入模型:OpenAI 和开源多语言嵌入的对比测试
OpenAI最近发布了他们的新一代嵌入模型*embedding v3*,他们将其描述为性能最好的嵌入模型,具有更高的多语言性能。这些模型分为两类:较小的称为text- embeddings -3-small,较大且功能更强大的称为text- embeddings -3-large。
87 0
|
2月前
|
JSON 测试技术 API
一个数据驱动的API测试框架
一个数据驱动的API测试框架