基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
实体关系抽取在挖掘结构化事实的信息抽取系统中扮演着重要的角色.近年来,深度学习在关系抽取任务中取得了显著的成果,同时,注意力机制也逐步地融入到神经网络中,进一步提高了关系抽取的性能.但是,目前的注意力机制主要关注一些低层次的特征,比如词汇等.本文提出一种基于高层语义注意力机制的分段卷积神经网络模型(PCNN_HSATT,high-level semantic attention-based piecewise convolutional neural networks),该模型将注意力机制设置在分段最大池化层后,动态地关注了高层次的语义信息.除此之外,由于中文实体关系语料稀疏性较大,本文利用同义词词林对COAE2016语料进行增强以扩大数据规模.最后在COAE2016和ACE2005的中文语料上进行实验,F 1值分别达到了78.41%和73.94%,与效果最好的SVM方法相比分别提高了10.45%和0.67%,这充分证明了PCNN_HSATT模型在中文关系抽取上的有效性.
推荐文章
基于注意力机制的LSTM的语义关系抽取
文本信息
语义关系
关系抽取
LSTM
注意力机制
基于GRU和注意力机制的远程监督关系抽取
深度学习
远程监督
门控循环单元
注意力机制
基于双重注意力机制的远程监督中文关系抽取
中文关系抽取
远程监督
双重注意力机制
双向门限循环单元(BI-GRU)
互动百科
基于动态掩蔽注意力机制的事件抽取
事件抽取
注意力机制
多事件抽取
动态掩蔽注意力
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于高层语义注意力机制的中文实体关系抽取
来源期刊 广西师范大学学报(自然科学版) 学科 工学
关键词 关系抽取 卷积神经网络 注意力机制 数据增广 依存句法约束
年,卷(期) 2019,(1) 所属期刊栏目 第二十四届全国信息检索学术会议专栏
研究方向 页码范围 32-41
页数 10页 分类号 TP391
字数 6785字 语种 中文
DOI 10.16088/j.issn.1001-6600.2019.01.004
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 徐金安 北京交通大学计算机与信息技术学院 35 194 10.0 13.0
2 张玉洁 北京交通大学计算机与信息技术学院 34 208 9.0 13.0
3 陈钰枫 北京交通大学计算机与信息技术学院 22 54 3.0 6.0
4 武文雅 北京交通大学计算机与信息技术学院 2 15 1.0 2.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (12)
共引文献  (86)
参考文献  (4)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1999(1)
  • 参考文献(0)
  • 二级参考文献(1)
2003(1)
  • 参考文献(0)
  • 二级参考文献(1)
2005(3)
  • 参考文献(1)
  • 二级参考文献(2)
2006(1)
  • 参考文献(0)
  • 二级参考文献(1)
2007(2)
  • 参考文献(0)
  • 二级参考文献(2)
2008(2)
  • 参考文献(0)
  • 二级参考文献(2)
2010(1)
  • 参考文献(1)
  • 二级参考文献(0)
2011(2)
  • 参考文献(1)
  • 二级参考文献(1)
2012(1)
  • 参考文献(0)
  • 二级参考文献(1)
2015(1)
  • 参考文献(0)
  • 二级参考文献(1)
2017(1)
  • 参考文献(1)
  • 二级参考文献(0)
2019(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
关系抽取
卷积神经网络
注意力机制
数据增广
依存句法约束
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
广西师范大学学报(自然科学版)
双月刊
1001-6600
45-1067/N
大16开
桂林市育才路15号
48-54
1957
chi
出版文献量(篇)
3550
总下载数(次)
1
总被引数(次)
13610
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导