基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
数据到文本的生成是指从结构化数据生成连贯文本的一种自然语言处理方法.近年来,由于端到端训练的深度神经网络的应用,数据到文本生成的方法显示出了巨大潜力.该方法能够处理大量数据自动生成连贯性文本,常用于新闻写作、报告生成等场景.然而,已有研究中对于数据中具体数值、时间等数据信息的推理存在较大缺陷,无法充分利用数据间的结构信息给出合理的生成指引,并且生成过程容易出现语义与句法分离训练的问题.因此,文中提出一种结合Transformer模型与深度神经网络的数据到文本生成方法,并提出一个用于内容规划的Transformer Text Planning(TTP)算法,有效地解决上述问题.在Rotowire公开数据集上进行方法验证,实验结果表明,文中方法性能优于已有数据到文本生成模型,可直接应用于结构化数据到连贯性文本的生成任务中,具有一定的实际应用价值.
推荐文章
加入目标指导的强化对抗文本生成方法研究
文本生成
强化学习
生成对抗网络
目标指导
数据到文本生成的神经网络模型研究
数据到文本生成
机器新闻写作
自然语言生成
神经网络
基于深度神经网络的中文新闻文本分类方法
深度神经网络
文本分类
中文新闻
自然语言处理
基于序列到序列神经网络模型的古诗自动生成方法
扩展
注意力机制
序列到序列
神经网络模型
古诗生成
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 结合Transformer模型与深度神经网络的数据到文本生成方法
来源期刊 重庆大学学报 学科 工学
关键词 文本生成 Transformer模型 内容预选 内容规划 深度神经网络
年,卷(期) 2020,(7) 所属期刊栏目
研究方向 页码范围 91-100
页数 10页 分类号 TP311
字数 语种 中文
DOI 10.11835/j.issn.1000-582X.2020.244
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 王华珍 华侨大学计算机科学与技术学院 15 56 6.0 7.0
2 许晓泓 华侨大学计算机科学与技术学院 2 0 0.0 0.0
3 何霆 华侨大学计算机科学与技术学院 3 6 1.0 2.0
4 陈坚 1 0 0.0 0.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (10)
共引文献  (3)
参考文献  (1)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2005(1)
  • 参考文献(0)
  • 二级参考文献(1)
2009(1)
  • 参考文献(0)
  • 二级参考文献(1)
2010(1)
  • 参考文献(0)
  • 二级参考文献(1)
2012(1)
  • 参考文献(0)
  • 二级参考文献(1)
2014(1)
  • 参考文献(0)
  • 二级参考文献(1)
2015(2)
  • 参考文献(0)
  • 二级参考文献(2)
2016(1)
  • 参考文献(0)
  • 二级参考文献(1)
2017(1)
  • 参考文献(0)
  • 二级参考文献(1)
2018(1)
  • 参考文献(0)
  • 二级参考文献(1)
2019(1)
  • 参考文献(1)
  • 二级参考文献(0)
2020(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
文本生成
Transformer模型
内容预选
内容规划
深度神经网络
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
重庆大学学报
月刊
1000-582X
50-1044/N
大16开
重庆市沙坪坝正街174号
78-16
1960
chi
出版文献量(篇)
6349
总下载数(次)
8
总被引数(次)
85737
论文1v1指导