基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
近年来,Transformer模型中多层注意力网络的使用有效提升了翻译模型的译文质量,但同时大量注意力操作的使用也导致模型整体的推断效率相对较低.基于此,提出了从粗粒度到细粒度(coarse-to-fine,CTF)的方法,根据注意力权重中的信息量差异对信息表示进行细粒度压缩,最终达到加速推断的目的 .实验发现,在NIST中英和WM T英德翻译任务上,该方法在保证模型性能的同时,推断速度分别提升了13.9% 和12.8%.此外,还进一步分析了注意力操作在不同表示粒度下的信息量差异,对该方法的合理性提供支持.
推荐文章
基于HBase的细粒度访问控制方法研究
HBase
访问控制
细粒度权限
数据库角色
IP网络的NGOSS的细粒度设计方法
下一代运营维护支持系统
细粒度
商务无关的软件组件
细粒度并行计算编程模型研究
细粒度并行计算
图形处理器
图形处理器的通用计算
Cell
统一计算设备架构
面向ASP页面资源的细粒度访问控制方法研究
ASP
授权策略
细粒度
访问控制
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 从粗粒度到细粒度的神经机器翻译系统推断加速方法
来源期刊 厦门大学学报(自然科学版) 学科 工学
关键词 神经机器翻译 模型加速 从粗粒度到细粒度
年,卷(期) 2020,(2) 所属期刊栏目 机器翻译模型
研究方向 页码范围 175-184
页数 10页 分类号 TP391
字数 7004字 语种 中文
DOI 10.6043/j.issn.0438-0479.201909012
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 朱靖波 东北大学自然语言处理实验室 44 806 17.0 28.0
3 肖桐 东北大学自然语言处理实验室 15 38 4.0 5.0
9 李垠桥 东北大学自然语言处理实验室 3 2 1.0 1.0
10 张裕浩 东北大学自然语言处理实验室 1 0 0.0 0.0
11 许诺 东北大学自然语言处理实验室 1 0 0.0 0.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2020(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
神经机器翻译
模型加速
从粗粒度到细粒度
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
厦门大学学报(自然科学版)
双月刊
0438-0479
35-1070/N
大16开
福建省厦门市厦门大学囊萤楼218-221室
34-8
1931
chi
出版文献量(篇)
4740
总下载数(次)
7
总被引数(次)
51714
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导