基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
在自然语言理解任务中,注意力机制由于可以有效捕获词在上下文语境中的重要程度并提高自然语言理解任务的有效性而受到了人们的普遍关注.基于注意力机制的非递归深度网络Transformer,不仅以非常少的参数和训练时间取得了机器翻译学习任务的最优性能,还在自然语言推理(Gaussian-Transformer)、词表示学习(Bert)等任务中取得了令人瞩目的成绩.目前Gaussian-Transformer已成为自然语言推理任务性能最好的方法之一.然而,在Transformer中引入Gaussian先验分布对词的位置信息进行编码,虽然可以大大提升邻近词的重要程度,但由于Gaussian分布中非邻近词的重要性会快速趋向于0,对当前词的表示有重要作用的非邻近词的影响会随着距离的加深消失殆尽.因此,文中面向自然语言推理任务,提出了一种基于截断高斯距离分布的自注意力机制,该方法不仅可以凸显邻近词的重要性,还可以保留对当前词表示具有重要作用的非邻近词的信息.在自然语言推理基准数据集SNLI和MultiNLI上的实验结果证实,截断高斯距离分布自注意力机制能够更有效地提取句子中词语的相对位置信息.
推荐文章
一种注意力增强的自然语言推理模型
自然语言处理
自然语言推理
ESIM模型
注意力机制
双向LSTM网络
基于自注意力机制的方面情感分类
方面词
情感分类
自注意力机制
语义编码
基于动态掩蔽注意力机制的事件抽取
事件抽取
注意力机制
多事件抽取
动态掩蔽注意力
一种基于自注意力机制的组推荐方法
群组推荐
自注意力机制
协同过滤
深度学习
融合策略
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 面向自然语言推理的基于截断高斯距离的自注意力机制
来源期刊 计算机科学 学科 工学
关键词 自然语言推理 自注意力机制 距离掩码 截断高斯掩码
年,卷(期) 2020,(4) 所属期刊栏目 人工智能
研究方向 页码范围 178-183
页数 6页 分类号 TP181
字数 5588字 语种 中文
DOI 10.11896/jsjkx.190600149
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 贾彩燕 北京交通大学计算机与信息技术学院 23 180 9.0 12.0
2 张鹏飞 北京交通大学计算机与信息技术学院 8 22 3.0 4.0
3 李冠宇 北京交通大学交通数据分析与挖掘北京市重点实验室 2 0 0.0 0.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (1)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2014(1)
  • 参考文献(1)
  • 二级参考文献(0)
2020(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
自然语言推理
自注意力机制
距离掩码
截断高斯掩码
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机科学
月刊
1002-137X
50-1075/TP
大16开
重庆市渝北区洪湖西路18号
78-68
1974
chi
出版文献量(篇)
18527
总下载数(次)
68
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
论文1v1指导