基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
Recurrent neural network language models (RNNLMs) have been applied in a wide range of research fields, including nature language processing and speech recognition. One challenge in training RNNLMs is the heavy computational cost of the crucial back-propagation (BP) algorithm. This paper presents an effective approach to train recurrent neural network on multiple GPUs, where parallelized stochastic gradient descent (SGD) is applied. Results on text-based experiments show that the proposed approach achieves 3.4× speedup on 4 GPUs than the single one, without any performance loss in language model perplexity.
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 Multi-GPU Based Recurrent Neural Network Language Model Training
来源期刊 国际计算机前沿大会会议论文集 学科 社会科学
关键词 RECURRENT NEURAL network LANGUAGE MODELS (RNNLMs)
年,卷(期) 2016,(1) 所属期刊栏目
研究方向 页码范围 124-126
页数 3页 分类号 C5
字数 语种
DOI
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2016(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
RECURRENT
NEURAL
network
LANGUAGE
MODELS
(RNNLMs)
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
国际计算机前沿大会会议论文集
半年刊
北京市海淀区西三旗昌临801号
出版文献量(篇)
616
总下载数(次)
6
总被引数(次)
0
论文1v1指导