《表1 重复数据删除实验结果》
提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《R-dedup:一种重复数据删除指纹计算的优化方法》
预期分块大小是重复数据删除系统在分块过程中期望形成数据块的大小,但是受到文件自身大小等因素的限制,实际分块大小可能与预期分块大小差异较大。在预期分块大小为4、8、16、32、64kB的情况下,分别对R-dedup方法和标准CDC方法进行了实验,结果如表1所示,表中重复数据率为原始数据大小与重复数据删除后实际存储数据大小的比值,反映了数据冗余程度。可以看出:kernel数据集由于包含数量众多的不同版本Linux内核源文件,存在大量冗余数据,因此具有相当高的重复数据率,达到了70.13~134.67,其他两组数据集的重复数据率则在2左右。另外,由于kernel数据集由大量小文件组成,而实际分块大小必定小于文件本身大小。因此,在设置预期分块大小大于8kB以后,实际分块大小也不会明显上升。
图表编号 | XD00212300100 严禁用于非法目的 |
---|---|
绘制时间 | 2021.01.10 |
作者 | 王龙翔、董凯、王鹏博、董小社、张兴军、朱正东、张利平 |
绘制单位 | 西安交通大学计算机科学与技术学院、西安美术学院信息中心、西安交通大学计算机科学与技术学院、西安交通大学计算机科学与技术学院、西安交通大学计算机科学与技术学院、西安交通大学计算机科学与技术学院、西安交通大学计算机科学与技术学院 |
更多格式 | 高清、无水印(增值服务) |