原文服务方: 科技与创新       
摘要:
Transformer在机器翻译方面的应用与别的机器翻译不同之处是Transformer中的编码-译码是使用注意力机制来代替RNN(Recurrent Neural Network,循环神经网络),且是多头注意力,还加入了位置编码来代表不同位置的信息,防止信息错乱。此方法使得运算的速度加快很多,也可防止词语位置之间的信息丢失,解决了相对于编码-译码中用RNN的机器翻译时存在的中长距离依赖问题。采用Transformer进行德语与英语之间的机器翻译,翻译速度相较于RNN结构的模型,得到了很大程度的提升。
推荐文章
基于语义网络的英语机器翻译模型设计与改进
语义网络
机器翻译
模型设计
语义相似度
语料库
权重训练
基于现代智能识别技术的英语机器翻译模型
智能识别技术
英语翻译
机器翻译模型
结构歧义
最大熵
翻译准确度
基于模板的汉英专利机器翻译研究
模板
专利文献
机器翻译
正则文法
浅析机器翻译
机器翻译
数据库
优势
准确度
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于预训练模型的机器翻译研究与设计
来源期刊 科技与创新 学科
关键词 注意力机制 Transformer模型 位置编码 预训练模型
年,卷(期) 2024,(21) 所属期刊栏目 ◇ 智 能 · 制 造 ◇
研究方向 页码范围 40-43
页数 4页 分类号
字数 语种 中文
DOI 10.15913/j.cnki.kjycx.2023.21.010
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2024(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
注意力机制
Transformer模型
位置编码
预训练模型
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
科技与创新
半月刊
2095-6835
14-1369/N
大16开
2014-01-01
chi
出版文献量(篇)
41653
总下载数(次)
0
总被引数(次)
202805
论文1v1指导