基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
近几年来神经机器翻译(Neural Machine Translation,NMT)发展迅速,Seq2Seq框架的提出为机器翻译带来了很大的优势,可以在观测到整个输入句子后生成任意输出序列.但是该模型对于长距离信息的捕获能力仍有很大的局限,循环神经网络(RNN)、LSTM网络都是为了改善这一问题提出的,但是效果并不明显.注意力机制的提出与运用则有效地弥补了该缺陷.Self-Attention模型就是在注意力机制的基础上提出的,本文使用Self-Attention为基础构建编码器-解码器框架.本文通过探讨以往的神经网络翻译模型,分析Self-Attention模型的机制与原理,通过TensorFlow深度学习框架对基于Self-Attention模型的翻译系统进行实现,在英文到中文的翻译实验中与以往的神经网络翻译模型进行对比,表明该模型取得了较好的翻译效果.
推荐文章
基于现代智能识别技术的英语机器翻译模型
智能识别技术
英语翻译
机器翻译模型
结构歧义
最大熵
翻译准确度
浅析机器翻译
机器翻译
数据库
优势
准确度
基于语义网络的英语机器翻译模型设计与改进
语义网络
机器翻译
模型设计
语义相似度
语料库
权重训练
基于预训练模型的机器翻译研究与设计
注意力机制
Transformer模型
位置编码
预训练模型
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于Self-Attention模型的机器翻译系统
来源期刊 计算机与现代化 学科 工学
关键词 神经机器翻译 Seq2Seq框架 注意力机制 Self-Attention模型
年,卷(期) 2019,(7) 所属期刊栏目 人工智能
研究方向 页码范围 9-14
页数 6页 分类号 TP391
字数 5232字 语种 中文
DOI 10.3969/j.issn.1006-2475.2019.07.002
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 王宇 河海大学计算机与信息学院 42 139 7.0 9.0
2 师岩 河海大学计算机与信息学院 2 6 1.0 2.0
3 吴水清 河海大学计算机与信息学院 2 6 1.0 2.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (2)
共引文献  (43)
参考文献  (3)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1997(2)
  • 参考文献(1)
  • 二级参考文献(1)
2007(1)
  • 参考文献(0)
  • 二级参考文献(1)
2017(2)
  • 参考文献(2)
  • 二级参考文献(0)
2019(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
神经机器翻译
Seq2Seq框架
注意力机制
Self-Attention模型
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机与现代化
月刊
1006-2475
36-1137/TP
大16开
南昌市井冈山大道1416号
44-121
1985
chi
出版文献量(篇)
9036
总下载数(次)
25
总被引数(次)
56782
论文1v1指导