基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
数据备份的目的就是为了恢复.由于逻辑连续的数据被物理分散在不同的磁盘位置,传统的去重方法产生的碎片严重影响了系统的恢复性能.之前存在的一些优化方法都是尝试在备份时利用重写算法来改进后期的恢复性能,然而重写算法自身存在的弊端就是必须以牺牲去重率的代价来获得更好的数据恢复性能,最终导致浪费磁盘空间的结果.并且传统的方法在备份完成后只会生成一份备份元数据以便后期恢复,导致系统在恢复过程中频繁地低效率访问磁盘上的元数据.本文提出将备份元数据分类组织成文件元数据和块元数据,在不牺牲系统去重率和充分利用硬件资源的前提下,通过对元数据更加激进式的预取来有效提高恢复性能和吞吐量.关于本文系统的恢复性能的实验评估是基于真实的数据集,实验表明:相比基于历史感知和基于内容的重写算法所获得的恢复性能,基于元数据分类的数据恢复分别在平均节约了1.91%和4.36%的去重率的情况下,获得了27.2%和29.3%的恢复性能提升.
推荐文章
一种基于模板的数据预取和缓存算法
专题型应用
数据预取
数据缓存
频繁查询
大数据查询
异构环境下基于双重预取的Hadoop调度算法
Hadoop
异构环境
调度算法
双重预取
大数据下MongoDB数据库档案文档存储去重研究
MongoDB
MD5
大数据
档案文档去重
GridFs
数据仓库元数据的界定与分类
元数据
数据仓库
广义元数据
狭义元数据
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 去重环境下基于元数据分类的贪婪预取型数据恢复
来源期刊 小型微型计算机系统 学科 工学
关键词 存储 重复数据删除 重写 元数据预取 恢复
年,卷(期) 2017,(5) 所属期刊栏目 计算机软件与数据库研究
研究方向 页码范围 930-935
页数 6页 分类号 TP309
字数 7896字 语种 中文
DOI
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 魏文国 广东技术师范学院电子与信息学院 33 153 8.0 10.0
2 邓玉辉 暨南大学信息科学技术学院计算机科学系 20 90 5.0 9.0
6 杨儒 暨南大学信息科学技术学院计算机科学系 1 2 1.0 1.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (1)
节点文献
引证文献  (2)
同被引文献  (19)
二级引证文献  (2)
2011(1)
  • 参考文献(1)
  • 二级参考文献(0)
2017(1)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(1)
  • 二级引证文献(0)
2017(1)
  • 引证文献(1)
  • 二级引证文献(0)
2018(1)
  • 引证文献(0)
  • 二级引证文献(1)
2019(1)
  • 引证文献(1)
  • 二级引证文献(0)
2020(1)
  • 引证文献(0)
  • 二级引证文献(1)
研究主题发展历程
节点文献
存储
重复数据删除
重写
元数据预取
恢复
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
小型微型计算机系统
月刊
1000-1220
21-1106/TP
大16开
辽宁省沈阳市东陵区南屏东路16号
8-108
1980
chi
出版文献量(篇)
11026
总下载数(次)
17
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导