基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
针对传统循环神经网络和卷积神经网络的缺点,搭建完全基于多头自注意力机制的Transformer蒙汉神经机器翻译模型.实验结果表明,该模型比基于LSTM的蒙汉翻译模型提高了9个BLEU值左右.这说明Transformer翻译模型在句子语义提取和语义表达方面优于LSTM翻译模型.同时在语料预处理阶段,还对中蒙文语料进行了不同粒度的切分.通过实验对比分析,蒙文进行BPE处理后的翻译结果优于对中文单独使用分词处理的结果;在较小语料库中,对中文进行分字处理效果优于分词效果.
推荐文章
基于多粒度的蒙汉神经机器翻译研究
蒙汉神经机器翻译
翻译粒度
长短时记忆
Transformer
子词粒度
基于参数迁移的蒙汉神经机器翻译模型
神经网络
机器翻译
参数迁移
蒙汉翻译
基于LSTM的蒙汉机器翻译的研究
注意力
端到端模型
机器翻译
蒙汉
LSTM神经网络
基于短语的汉蒙统计机器翻译研究
短语
汉蒙统计机器翻译
自动评测
形态学
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于Transformer的蒙汉神经机器翻译研究
来源期刊 计算机应用与软件 学科 工学
关键词 Transformer 多头自注意力 粒度切分 神经机器翻译
年,卷(期) 2020,(2) 所属期刊栏目 人工智能与识别
研究方向 页码范围 141-146,225
页数 7页 分类号 TP391
字数 5549字 语种 中文
DOI 10.3969/j.issn.1000-386x.2020.02.022
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 苏依拉 内蒙古工业大学信息工程学院 65 139 6.0 9.0
2 牛向华 内蒙古工业大学信息工程学院 7 2 1.0 1.0
3 高芬 内蒙古工业大学信息工程学院 8 0 0.0 0.0
4 赵亚平 内蒙古工业大学信息工程学院 8 2 1.0 1.0
5 仁庆道尔吉 内蒙古工业大学信息工程学院 27 22 3.0 3.0
6 范婷婷 内蒙古工业大学信息工程学院 2 0 0.0 0.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (33)
共引文献  (11)
参考文献  (6)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1983(1)
  • 参考文献(0)
  • 二级参考文献(1)
1997(2)
  • 参考文献(0)
  • 二级参考文献(2)
2001(1)
  • 参考文献(1)
  • 二级参考文献(0)
2003(2)
  • 参考文献(0)
  • 二级参考文献(2)
2005(1)
  • 参考文献(0)
  • 二级参考文献(1)
2006(1)
  • 参考文献(0)
  • 二级参考文献(1)
2007(4)
  • 参考文献(0)
  • 二级参考文献(4)
2008(2)
  • 参考文献(0)
  • 二级参考文献(2)
2009(2)
  • 参考文献(0)
  • 二级参考文献(2)
2010(3)
  • 参考文献(0)
  • 二级参考文献(3)
2011(6)
  • 参考文献(0)
  • 二级参考文献(6)
2012(5)
  • 参考文献(0)
  • 二级参考文献(5)
2013(4)
  • 参考文献(0)
  • 二级参考文献(4)
2015(3)
  • 参考文献(3)
  • 二级参考文献(0)
2018(1)
  • 参考文献(1)
  • 二级参考文献(0)
2019(1)
  • 参考文献(1)
  • 二级参考文献(0)
2020(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
Transformer
多头自注意力
粒度切分
神经机器翻译
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机应用与软件
月刊
1000-386X
31-1260/TP
大16开
上海市愚园路546号
4-379
1984
chi
出版文献量(篇)
16532
总下载数(次)
47
总被引数(次)
101489
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导