基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
基于注意力机制的编解码模型在文本摘要、机器翻译等序列到序列任务上得到了广泛的应用.在深度学习框架中,深层神经网络能够提取输入数据不同的特征表示,因此传统编解码模型中通常堆叠多层解码器来提高模型性能.然而现有的模型在解码时仅利用编码器最后一层信息,而忽略编码器其余层的特征.鉴于此,提出一种基于多层循环神经网络和层级交互注意力机制的摘要生成模型,通过层级交互注意力提取编码器不同层次的特征信息来指导摘要的生成.为了处理因引入不同层次特征而带来的信息冗余问题,引入变分信息瓶颈压缩数据噪声.最后在Gigaword和DUC2004摘要数据集上进行实验,结果表明所提方法能够获得最佳性能.
推荐文章
融合评论文本层级注意力和外积的推荐方法
协同过滤
数据稀疏性
评论文本
注意力机制
外积
DAPC:结合双注意力和指针覆盖的文本摘要模型
生成式文本摘要
局部注意力
序列到序列框架
覆盖机制
基于循环神经网络和注意力模型的文本情感分析
文本情感分析
深度学习
长短期记忆模型
注意力模型
大脑皮层-肌肉交互作用与注意力关系的实验研究
相干
脑电
肌电
注意力
皮层-肌肉耦合
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 利用层级交互注意力的文本摘要方法
来源期刊 计算机科学与探索 学科 工学
关键词 文本摘要 编解码模型 层级交互注意力机制 变分信息瓶颈
年,卷(期) 2020,(10) 所属期刊栏目 学术研究
研究方向 页码范围 1681-1692
页数 12页 分类号 TP399
字数 语种 中文
DOI 10.3778/j.issn.1673-9418.1909008
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2020(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
文本摘要
编解码模型
层级交互注意力机制
变分信息瓶颈
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机科学与探索
月刊
1673-9418
11-5602/TP
大16开
北京市海淀区北四环中路211号北京619信箱26分箱
82-560
2007
chi
出版文献量(篇)
2215
总下载数(次)
4
论文1v1指导