基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
基于神经网络编码-解码框架的复述生成模型存在两方面的问题:1)生成的复述句中存在实体词不准确、未登录词和词汇重复生成;2)复述平行语料的有限规模限制了编码器的语义学习能力.针对第一个问题,本文提出在解码过程中融合注意力机制、复制机制和覆盖机制的多机制复述生成模型,利用复制机制从原句复制词语来解决实体词和未登录词生成问题;利用覆盖机制建模学习注意力机制的历史决策信息来规避词汇重复生成.针对第二个问题,基于多任务学习框架,提出在复述生成任务中联合自编码任务,两个任务共享一个编码器,同时利用平行复述语料和原句子数据,共同增强复述生成编码器的语义学习能力.在Quora复述数据集上的实验结果表明,提出的联合自编码的多机制融合复述生成模型有效地解决了复述生成的问题,并提高了复述句的生成质量.
推荐文章
变分自编码器模型综述
深度隐空间生成模型
无监督学习
变分自编码器
图像生成
深度稀疏自编码网络融合多LBP特征用于单样本人脸识别
稀疏自编码
单样本人脸识别
空-频特征
多特征融合
二维离散小波变换
数据库
基于深度自编码多维特征融合的慢动目标检测
目标检测
深度自编码
特征提取
多维特征融合
时频变换
脉冲压缩
基于混沌与自编码相融合扩频码的构造
扩频通信
混沌映射
序列自编码
Henon映射
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 联合自编码任务的多机制融合复述生成模型
来源期刊 北京大学学报(自然科学版) 学科
关键词 复述生成 自编码 多任务学习 多机制融合 注意力机制 复制机制 覆盖机制
年,卷(期) 2020,(1) 所属期刊栏目 专题报道:面向人工智能的自然语言分析与理解
研究方向 页码范围 53-60
页数 8页 分类号
字数 5038字 语种 中文
DOI 10.13209/j.0479-8023.2019.104
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 徐金安 北京交通大学计算机与信息技术学院 35 194 10.0 13.0
2 张玉洁 北京交通大学计算机与信息技术学院 34 208 9.0 13.0
3 刘明童 北京交通大学计算机与信息技术学院 8 7 2.0 2.0
4 张姝 1 0 0.0 0.0
5 孟遥 联想研究院人工智能实验室 1 0 0.0 0.0
6 陈钰枫 北京交通大学计算机与信息技术学院 22 54 3.0 6.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (2)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1997(1)
  • 参考文献(1)
  • 二级参考文献(0)
2009(1)
  • 参考文献(1)
  • 二级参考文献(0)
2020(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
复述生成
自编码
多任务学习
多机制融合
注意力机制
复制机制
覆盖机制
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
北京大学学报(自然科学版)
双月刊
0479-8023
11-2442/N
16开
北京海淀北京大学校内
2-89
1955
chi
出版文献量(篇)
3152
总下载数(次)
8
总被引数(次)
52842
相关基金
北京市自然科学基金
英文译名:Natural Science Foundation of Beijing Province
官方网址:http://210.76.125.39/zrjjh/zrjj/
项目类型:重大项目
学科类型:
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导