基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
近年来,神经机器翻译(neural machine translation,NMT)表现出极大的优越性,然而如何在翻译一个文档时考虑篇章上下文信息仍然是一个值得探讨的问题.传统的注意力机制对源端的所有词语进行计算,而在翻译当前句子时篇章中大量的信息中只有小部分是与之相关的.在篇章级机器翻译中,采用传统的注意力机制建模篇章信息存在着信息冗余的问题.该文提出了一种联合注意力机制,结合“硬关注”和“软关注”的机制对篇章上下文的信息进行建模.关键思想是通过“硬关注”筛选出与翻译当前句子相关的源端历史词语,然后采用“软关注”的方法进一步抽取翻译中所需的上下文信息.实验表明,相比于基线系统,该方法能使翻译性能获得明显提升.
推荐文章
基于预训练模型的机器翻译研究与设计
注意力机制
Transformer模型
位置编码
预训练模型
浅析机器翻译
机器翻译
数据库
优势
准确度
基于模板的汉英专利机器翻译研究
模板
专利文献
机器翻译
正则文法
基于多层注意力机制—柔性AC算法的机器人路径规划
行动者—评论家算法
注意力机制
深度强化学习
机器人路径规划
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于联合注意力机制的篇章级机器翻译
来源期刊 中文信息学报 学科 工学
关键词 神经机器翻译 注意力机制 篇章级机器翻译
年,卷(期) 2019,(12) 所属期刊栏目 机器翻译
研究方向 页码范围 45-53
页数 9页 分类号 TP391
字数 8702字 语种 中文
DOI
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 冯洋 中国科学院计算技术研究所智能信息处理重点实验室 6 10 2.0 3.0
5 李京谕 中国科学院计算技术研究所智能信息处理重点实验室 2 1 1.0 1.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (1)
同被引文献  (9)
二级引证文献  (0)
2019(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
2020(1)
  • 引证文献(1)
  • 二级引证文献(0)
研究主题发展历程
节点文献
神经机器翻译
注意力机制
篇章级机器翻译
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
中文信息学报
月刊
1003-0077
11-2325/N
16开
北京海淀区中关村南四街4号
1986
chi
出版文献量(篇)
2723
总下载数(次)
5
总被引数(次)
45413
论文1v1指导