基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
神经机器翻译(NMT)模型通常具有庞大的参数量,例如,Transformer在词表设为3万时有将近1亿的神经元,模型的参数量越大,模型越难优化,且存储模型的资源需求也越高.该文提出了一种压缩方法,用于将复杂且参数量大的N MT模型压缩为精简参数量小的N MT模型.该文同时提出半知识蒸馏方法和递进式半知识蒸馏方法,其中半知识蒸馏是从参数多、性能好的教师模型中获取半部分的权重作为精简、参数少的学生模型训练的起点;递进式半知识蒸馏方法指运用过一次半知识蒸馏方法压缩以后,再把当前的半知识蒸馏压缩的模型作为新的教师模型,再次运用半知识蒸馏方法得到全压缩模型.在广泛使用的中英和日英数据集上进行实验,结果表明,该方法对N MT系统有积极影响.在日英数据集上,该文方法的最佳性能比基准模型高2.16个BLEU值,比词级别知识蒸馏方法高1.15个BLEU值,并且高于句子级别的知识蒸馏方法0.28个BLEU值.
推荐文章
浅析机器翻译
机器翻译
数据库
优势
准确度
改进的模板驱动的神经机器翻译
神经机器翻译
子块模板
短语提取
基于模板的汉英专利机器翻译研究
模板
专利文献
机器翻译
正则文法
基于现代智能识别技术的英语机器翻译模型
智能识别技术
英语翻译
机器翻译模型
结构歧义
最大熵
翻译准确度
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于递进式半知识蒸馏的神经机器翻译
来源期刊 中文信息学报 学科
关键词 机器翻译 模型压缩 知识蒸馏
年,卷(期) 2021,(2) 所属期刊栏目 机器翻译|Machine Translation
研究方向 页码范围 52-60
页数 9页 分类号 TP391
字数 语种 中文
DOI 10.3969/j.issn.1003-0077.2021.02.005
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (3)
共引文献  (1)
参考文献  (1)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2010(1)
  • 参考文献(0)
  • 二级参考文献(1)
2012(1)
  • 参考文献(0)
  • 二级参考文献(1)
2015(1)
  • 参考文献(0)
  • 二级参考文献(1)
2019(1)
  • 参考文献(1)
  • 二级参考文献(0)
2021(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
机器翻译
模型压缩
知识蒸馏
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
中文信息学报
月刊
1003-0077
11-2325/N
16开
北京海淀区中关村南四街4号
1986
chi
出版文献量(篇)
2723
总下载数(次)
5
总被引数(次)
45413
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
论文1v1指导