原文服务方: 计算机应用研究       
摘要:
针对英文句子压缩方法进行研究,提出一种基于预读及简单注意力机制的压缩方法.在编码器—解码器(encoder-decoder)框架下,以循环门单元(gated recurrent unit,GRU)神经网络模型为基础,在编码阶段对原句语义进行两次建模.首次建模结果作为全局信息,加强二次语义建模,得到更全面准确的语义编码向量.解码阶段充分考虑删除式句子压缩的特殊性,适用简单注意力(3t-attention)机制,将编码向量中与当前解码时刻最相关的语义部分输入到解码器中,提高预测效率及准确率.在谷歌新闻句子压缩数据集上的实验结果表明,所提压缩方法优于已有公开结果.因此,预读及简单注意力机制可有效提高英文句子压缩精度.
推荐文章
基于自注意力机制的方面情感分类
方面词
情感分类
自注意力机制
语义编码
基于动态掩蔽注意力机制的事件抽取
事件抽取
注意力机制
多事件抽取
动态掩蔽注意力
基于注意力机制的全景分割网络
全景分割
背景类实例重叠
三重态注意力机制
语义增强注意力机制
基于GRU和注意力机制的远程监督关系抽取
深度学习
远程监督
门控循环单元
注意力机制
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于预读及简单注意力机制的句子压缩方法
来源期刊 计算机应用研究 学科
关键词 自然语言处理 句子压缩 预读 注意力机制
年,卷(期) 2019,(2) 所属期刊栏目 算法研究探讨
研究方向 页码范围 371-375,394
页数 6页 分类号 TP391
字数 语种 中文
DOI 10.19734/j.issn.1001-3695.2017.08.0720
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 刘文芬 桂林电子科技大学计算机与信息安全学院广西密码学与信息安全重点实验室 7 17 2.0 4.0
2 胡学先 3 19 2.0 3.0
3 王彬宇 2 16 2.0 2.0
4 周艳芳 2 3 1.0 1.0
5 鹿忠磊 2 3 1.0 1.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (8)
节点文献
引证文献  (2)
同被引文献  (2)
二级引证文献  (0)
1994(1)
  • 参考文献(1)
  • 二级参考文献(0)
1997(2)
  • 参考文献(2)
  • 二级参考文献(0)
2005(1)
  • 参考文献(1)
  • 二级参考文献(0)
2008(1)
  • 参考文献(1)
  • 二级参考文献(0)
2014(2)
  • 参考文献(2)
  • 二级参考文献(0)
2017(1)
  • 参考文献(1)
  • 二级参考文献(0)
2019(1)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(1)
  • 二级引证文献(0)
2019(1)
  • 引证文献(1)
  • 二级引证文献(0)
2020(1)
  • 引证文献(1)
  • 二级引证文献(0)
研究主题发展历程
节点文献
自然语言处理
句子压缩
预读
注意力机制
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机应用研究
月刊
1001-3695
51-1196/TP
大16开
1984-01-01
chi
出版文献量(篇)
21004
总下载数(次)
0
总被引数(次)
238385
论文1v1指导