基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
模型存储压缩,旨在在不改变模型性能的同时,大幅度降低神经网络中过多的模型参数带来的存储空间浪费.研究人员对于模型存储压缩方法的研究大多数在计算机视觉任务上,缺乏对机器翻译模型压缩方法的研究.该文在机器翻译任务上通过实验对比剪枝、量化、低精度三种模型压缩方法在Transformer和RNN(recurrent neu-ral netw o rk)两种模型上的模型压缩效果,最终使用剪枝、量化、低精度三种方法的组合方法可在不损失原有模型性能的前提下在Transformer和RNN模型上分别达到5.8×和11.7×的压缩率.同时,该文还针对三种模型压缩方法在不同模型上的优缺点进行了分析.
推荐文章
面向汉维机器翻译的双语关联度优化模型
维吾尔语
神经网络机器翻译
注意力机制
词对齐
生成概率
改进的模板驱动的神经机器翻译
神经机器翻译
子块模板
短语提取
浅析机器翻译
机器翻译
数据库
优势
准确度
面向维汉机器翻译的语料筛选技术研究
维汉机器翻译
语料筛选
语言模型
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 面向神经机器翻译的模型存储压缩方法分析
来源期刊 中文信息学报 学科 工学
关键词 模型压缩 剪枝 量化 低精度 机器翻译
年,卷(期) 2019,(1) 所属期刊栏目 机器翻译
研究方向 页码范围 93-102
页数 10页 分类号 TP391
字数 6922字 语种 中文
DOI
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 肖桐 东北大学自然语言处理实验室 15 38 4.0 5.0
2 姜雨帆 东北大学自然语言处理实验室 3 5 1.0 2.0
3 林野 东北大学自然语言处理实验室 2 1 1.0 1.0
4 李恒雨 东北大学自然语言处理实验室 1 1 1.0 1.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (3)
节点文献
引证文献  (1)
同被引文献  (0)
二级引证文献  (0)
2010(1)
  • 参考文献(1)
  • 二级参考文献(0)
2012(1)
  • 参考文献(1)
  • 二级参考文献(0)
2015(1)
  • 参考文献(1)
  • 二级参考文献(0)
2019(1)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(1)
  • 二级引证文献(0)
2019(1)
  • 引证文献(1)
  • 二级引证文献(0)
研究主题发展历程
节点文献
模型压缩
剪枝
量化
低精度
机器翻译
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
中文信息学报
月刊
1003-0077
11-2325/N
16开
北京海淀区中关村南四街4号
1986
chi
出版文献量(篇)
2723
总下载数(次)
5
总被引数(次)
45413
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
论文1v1指导