原文服务方: 西安工程大学学报       
摘要:
针对传统引入注意力机制的Encoder-Decoder模型在摘要生成任务上存在文字冗余、表述不一致、非登录词(out of vocabulary,OOV)等问题,而导致生成摘要准确性较差,对可嵌入文本位置信息的Transformer模型进行了改进。提出引入指针网络帮助解码,利用指针网络生成文本的优势生成摘要,并 在LCSTS中文短文本摘要数据集上验证了该模型的有效性。结果表明:改进后的Transformer模型在ROUGE评分上比基准模型平均高出2分,在保证摘要与输入文本一致性的同时,其生成内容的显著性和语言的流畅性提升明显。
推荐文章
基于改进Transformer模型的文本摘要生成方法
文本摘要
Transformer模型
先验知识
动态词向量
句向量
基于指针网络生成抽象式新闻摘要
指针网络
编码器解码器
中文分词
新闻摘要
融合词汇特征的生成式摘要模型
自然语言处理
文本摘要
注意力机制
LSTM
CNN
DAPC:结合双注意力和指针覆盖的文本摘要模型
生成式文本摘要
局部注意力
序列到序列框架
覆盖机制
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 融合指针网络的Transformer摘要生成模型的改进
来源期刊 学科 工学
关键词 文本摘要 注意力机制 Encoder-Decoder模型 Transformer模型 指针网络
年,卷(期) 2022,(2) 所属期刊栏目 计算机科学
研究方向 页码范围 94-100
页数 6页 分类号 TP391
字数 语种 中文
DOI 10.13338/ji.ssn.1674-649x.2022.02.013
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2022(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
文本摘要
注意力机制
Encoder-Decoder模型
Transformer模型
指针网络
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
西安工程大学学报
双月刊
1674-649X
61-1471/N
大16开
1986-01-01
chi
出版文献量(篇)
3377
总下载数(次)
0
总被引数(次)
15983
论文1v1指导