基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
针对Spark检查点缓存数据清理需要等待作业运行完成后由编程人员清理,可能导致产生失效数据累积占用内存问题,本文分析检查点执行机制,建模推导出随着检查点数量增多,检查点缓存清理方法不可扩展,提出使用检查点缓存效用熵模型感知检查点缓存和内存槽的匹配度,并利用效用最佳匹配原则,推导出最佳检查点缓存清理最佳时机.基于效用熵的检查点缓存并行清理(PCC)策略,通过使检查点缓存清理时刻近似等于检查点写入HDFS时刻优化内存资源.实验结果表明,在基于公平调度的多作业执行环境下,随着检查点数量增加,未优化程序执行效率变差,使用PCC策略后,在程序执行时长、耗电量、GC时间3个指标上最大分别能降低10.1%、9.5%、19.5%,有效提升多检查点时的程序执行效率.
推荐文章
并行计算框架Spark的自动检查点策略
自动检查点
RDD权重
Spark
恢复时间
NS-2检查点的实现与性能分析
检查点
NS-2
Condor
容错
一种基于高性能集群计算系统的检查点策略
检查点
容错
集群系统
非阻塞协议
用户指导的多层混合检查点技术及性能优化
多层混合检查点
IA64
性能优化
最小可恢复状态集
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 Spark效用感知的检查点缓存并行清理策略
来源期刊 计算机系统应用 学科
关键词 缓存清理 Spark 效用熵 失效检查点 并行清理 大数据
年,卷(期) 2022,(4) 所属期刊栏目 软件技术·算法|Software Technique·Algorithm
研究方向 页码范围 253-259
页数 7页 分类号
字数 语种 中文
DOI 10.15888/j.cnki.csa.008420
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2022(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
缓存清理
Spark
效用熵
失效检查点
并行清理
大数据
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机系统应用
月刊
1003-3254
11-2854/TP
大16开
北京中关村南四街4号
82-558
1991
chi
出版文献量(篇)
10349
总下载数(次)
20
论文1v1指导