上面
是戴尔PowerStore中端存储
可实现4:1的数据缩减率
下面
是戴尔PowerProtect DD备份存储
可实现65:1的数据缩减
同样用来“存数据”
为什么数据缩减率
差别这么大?
这个问题,相信很多企业级的小伙伴和我有一样的疑问。
相对于备份存储动辄达到50:1、65:1的数据缩减比例,而主存储往往只有“可怜”的3:1,4:1。难道是备份存储所使用的数据重删、压缩算法更先进,更高效?
如果是算法导致,为什么不用在主存储上?这对于寸金寸“容量”的存储设备来说,所带来的经济效益实在太诱人了。
而要回答这个问题,我们得先知道什么是重复数据删除技术和数据压缩技术(IT老司机可略过这部分)。
重复数据删除技术是指仅在存储介质上保留数据的一个唯一实例,冗余数据被替换为指向唯一数据副本的一个指针。当两个或多个文件具有相同的内容时,重复数据删除会将文件分成多个段,仅存储每个唯一文件段的一个副本。
而数据压缩技术是指在不丢失有用信息的前提下,缩减数据量以减少存储空间,从而提高其传输、存储和处理效率,或按照一定的算法对数据进行重新组织,减少数据的冗余和存储的空间的一种技术方法。
▼一图看懂数据重删和压缩▼
影响数据缩减率的
因素有哪些?
答案是虽然主存储和备份存储都以存储数据为目的,但两者对于数据缩减技术有着完全不同的考量。
首先,数据缩减是备份设备的核心功能,提供更高的数据缩减率,是这类产品的主要诉求。
而对主存储来说,数据缩减只是附加功能之一,而为了避免数据缩减产生大量的计算资源占用,影响到业务应用的读写,因此在数据缩减的使用上,往往有许多顾虑与限制。
另一方面,备份设备也因为自身的高比率数据缩减功能,使其也被局限在备份、归档这类静态的存储应用,而不适合需要频繁读取与写入的一般业务应用。原因有以下两点:
?第一,高比例的数据缩减会占用大量的计算资源,从而影响其他业务应用,因此很难在运行数据缩减的同时,还能正常提供一般的读写服务。
?其次,经过重复数据删除或数据压缩技术处理过的数据,必须先还原成原始数据,才能供前端主机读取与使用,而主存储中的数据,往往是那些需要频繁读取的活跃数据。
因此,以占用系统资源的方式频繁地缩减与还原数据,是无意义的,也是资源的浪费。
此外,影响数据缩减率的另一个因素是,它取决于你有多少相同或相似类型的数据:
●数据保存期设置:数据保存的时间越长,重复数据删除引擎发现重复数据的可能性也越大。
●数据类型:一些数据天生比较容易出现重复。如果网络里存在大量的Windows服务器,或者VMware虚拟机,就有希望得到更高的数据缩减率。
●变化速率:数据变化的速率越低,发现重复的机会也就越高。
●数据备份策略:全备份(相对于增量备份和差异备份)的频率越高,数据缩减的潜力也就越大,因为每天的数据有大量的重复。
可以看到,由于归档和备份系统的数据,大部分都是冗余数据,因此天生就可以实现更高的数据缩减率。
最后,是技术问题
比如戴尔PowerProtect DD备份存储拥有高达65:1的数据缩减率,放眼业界同类产品都是顶尖的存在,这就源于其独有的数据缩减专利技术。
而戴尔PowerStore虽然“只有”4:1的数据缩减率,但其数据缩减功能是“始终可用”。意味着PowerStore在数据缩减时不会额外占用控制器的CPU资源,几乎对性能不会产生影响。
这也让企业用户不再陷入性能下降与节省成本的两难,而让数据缩减在主存储真正发挥了用武之地。
*戴尔PowerStore采用英特尔®至强®可扩展处理器,该处理器可以优化工作负载,可靠性强,还有高计算力、高稳定性和高效敏捷性,不仅帮助PowerStore轻松满足既定工作负载,也可以为数字化变革做好准备。
最后,总结一下。为什么备份存储与主存储的数据缩减率差别巨大?
答案是两种产品的设计思路不同,存储数据的类型不同,因而不能直接进行数据缩减率的比较。
“搞存储,不忽悠,
我们是认真的!”
END
如果您想了解更多有关戴尔科技的产品和解决方案信息,请扫描以下二维码咨询戴尔官方客服。
好文章,需要你的鼓励
博通宣布对VMware Cloud Foundation平台进行重大升级,将私有AI服务集成到核心订阅中,并为vSAN存储虚拟化软件添加云原生对象存储支持。此举旨在满足企业对简化基础设施、高效AI采用和网络安全的需求。升级包括与英伟达合作的VMware Private AI Foundation服务、支持AMD GPU、Amazon S3兼容对象存储、与Canonical合作的Ubuntu容器镜像,以及新的四阶段自动化安全流程。博通还推出了面向高监管行业的VCF网络合规高级服务。
清华大学等多家机构研究团队完成了语音分离技术的全面调研,系统梳理了从传统方法到深度学习的技术演进。研究揭示了"鸡尾酒会问题"的核心挑战,分析了各种学习范式和网络架构的优劣,并通过统一实验框架提供了公平的性能基准。调研涵盖了实时处理、轻量化设计、多模态融合等关键技术方向,为学术界和产业界的技术选型提供了重要参考,推动语音分离从实验室走向实际应用。
Google正式发布Gemini 2.5 Flash Image模型,该模型此前在测试版中被称为nanobanana。新模型为企业创意项目提供更多选择,能够快速修改图像外观并提供比以往模型更强的控制能力。该模型在保持人物相似度和编辑一致性方面表现出色,支持多轮编辑、照片融合等功能,并已集成到Gemini应用中供付费和免费用户使用。
浙江大学和腾讯微信视觉团队发现AI图片生成训练中"时机胜过强度"的重要规律,开发出TempFlow-GRPO新方法。通过轨迹分支技术精确评估中间步骤,结合噪声感知权重调整优化不同阶段的学习强度,将训练效率提升三倍,在复杂场景理解方面准确率从63%提升至97%,为AI训练方法论带来重要突破。