基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
如何在受限时间内满足深度学习模型的训练精度需求并最小化资源成本是分布式深度学习系统面临的一大挑战.资源和批尺寸超参数配置是优化模型训练精度及资源成本的主要方法.既有工作分别从计算效率和训练精度的角度,对资源及批尺寸超参数进行独立配置.然而,两类配置对于模型训练精度及资源成本的影响具有复杂的依赖关系,既有独立配置方法难以同时达到满足模型训练精度需求及资源成本最小化的目标.针对上述问题,本文提出分布式深度学习系统资源-批尺寸协同优化配置方法.该方法首先依据资源配置和批尺寸超参数配置与模型训练时间和训练精度间的单调函数关系,选取保序回归理论工具,分别建立模型单轮完整训练时间和训练最终精度预测模型;然后协同使用上述模型,以资源成本最小化为目标,求解满足模型训练精度需求的资源和批尺寸优化配置解.本文基于典型分布式深度学习系统TensorFlow对所提出方法进行性能评测.实验结果表明,与既有基于自动化的资源或批尺寸独立配置方法相比,本文提出的协同配置方法最大节约资源成本26.89%.
推荐文章
一种协同的分布式本体管理系统设计与实现
本体管理系统
协同
分布式
非结构化信息
一种面向分布式数据流的闭频繁模式挖掘方法
智能交通系统
分布式数据流
闭频繁模式挖掘
MapReduce
传感器网络
一种面向分布式应用的调试代理
分布式应用
调试代理
调试器
一种分布式并行VOD系统
分布式VOD
分布式存储
可扩展性
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 一种面向分布式深度学习系统的资源及批尺寸协同配置方法
来源期刊 计算机学报 学科 工学
关键词 分布式深度学习系统 模型训练 批尺寸 资源配置 资源成本
年,卷(期) 2022,(2) 所属期刊栏目
研究方向 页码范围 302-316
页数 15页 分类号 TP18
字数 语种 中文
DOI 10.11897/SP.J.1016.2022.00302
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2022(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
分布式深度学习系统
模型训练
批尺寸
资源配置
资源成本
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机学报
月刊
0254-4164
11-1826/TP
大16开
中国科学院计算技术研究所(北京2704信箱)
2-833
1978
chi
出版文献量(篇)
5154
总下载数(次)
49
论文1v1指导