基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
Relation extraction is an important task in NLP community.However,some models often fail in capturing Long-distance dependence on semantics,and the interaction between semantics of two entities is ignored.In this paper,we propose a novel neural network model for semantic relation classification called joint self-attention bi-LSTM(SA-Bi-LSTM)to model the internal structure of the sentence to obtain the importance of each word of the sentence without relying on additional information,and capture Long-distance dependence on semantics.We conduct experiments using the SemEval-2010 Task 8 dataset.Extensive experiments and the results demonstrated that the proposed method is effective against relation classification,which can obtain state-ofthe-art classification accuracy just with minimal feature engineering.
推荐文章
基于recurrent neural networks的网约车供需预测方法
长短时记忆循环神经网络
网约车数据
交通优化调度
TensorFlow
深度学习
基于Self-Attention模型的机器翻译系统
神经机器翻译
Seq2Seq框架
注意力机制
Self-Attention模型
结合LDA与Self-Attention的短文本情感分类方法
主题词
短文本
Self-Attention
潜在狄利克雷分布(LDA)
word2vec
融合Self-Attention机制和n-gram卷积核的印尼语复合名词自动识别方法研究
印尼语复合名词短语
Self-Attention机制
卷积神经网络
自动识别
条件随机场
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 Joint Self-Attention Based Neural Networks for Semantic Relation Extraction
来源期刊 信息隐藏与隐私保护杂志(英文) 学科 工学
关键词 Self-attention RELATION extraction NEURAL networks
年,卷(期) 2019,(2) 所属期刊栏目
研究方向 页码范围 69-75
页数 7页 分类号 TP3
字数 语种
DOI
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2019(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
Self-attention
RELATION
extraction
NEURAL
networks
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
信息隐藏与隐私保护杂志(英文)
季刊
2637-4234
江苏省南京市浦口区东大路2号东大科技园A
出版文献量(篇)
15
总下载数(次)
2
总被引数(次)
0
论文1v1指导