基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
命名实体识别属于自然语言处理领域词法分析中的一部分,是计算机正确理解自然语言的基础.为了加强模型对命名实体的识别效果,本文使用预训练模型BERT(bidirectional encoder representation from transformers)作为模型的嵌入层,并针对BERT微调训练对计算机性能要求较高的问题,采用了固定参数嵌入的方式对BERT进行应用,搭建了BERT-BiLSTM-CRF模型.并在该模型的基础上进行了两种改进实验.方法 一,继续增加自注意力(self-attention)层,实验结果显示,自注意力层的加入对模型的识别效果提升不明显.方法 二,减小BERT模型嵌入层数.实验结果显示,适度减少BERT嵌入层数能够提升模型的命名实体识别准确性,同时又节约了模型的整体训练时间.采用9层嵌入时,在MSRA中文数据集上F1值提升至94.79%,在Weibo中文数据集上F1值达到了68.82%.
推荐文章
基于自注意力机制的军事命名实体识别
LSTM
命名实体识别
深度学习
自注意力
基于位置敏感Embedding的中文命名实体识别
命名实体识别
表示学习
Embedding
多尺度聚类
条件随机场
基于BERT的医疗电子病历命名实体识别
电子病历
命名实体识别
BERT
膨胀卷积神经网络
多头注意力
基于自注意力机制的方面情感分类
方面词
情感分类
自注意力机制
语义编码
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 加入自注意力机制的BERT命名实体识别模型
来源期刊 智能系统学报 学科 工学
关键词 命名实体识别 BERT 自注意力机制 深度学习 条件随机场 自然语言处理 双向长短期记忆网络 序列标注
年,卷(期) 2020,(4) 所属期刊栏目 吴文俊人工智能科学技术奖论坛
研究方向 页码范围 772-779
页数 8页 分类号 TP391
字数 语种 中文
DOI 10.11992/tis.202003003
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (87)
共引文献  (47)
参考文献  (12)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1992(1)
  • 参考文献(0)
  • 二级参考文献(1)
1993(1)
  • 参考文献(0)
  • 二级参考文献(1)
1995(2)
  • 参考文献(0)
  • 二级参考文献(2)
1997(8)
  • 参考文献(1)
  • 二级参考文献(7)
1999(2)
  • 参考文献(1)
  • 二级参考文献(1)
2001(1)
  • 参考文献(0)
  • 二级参考文献(1)
2005(4)
  • 参考文献(0)
  • 二级参考文献(4)
2006(4)
  • 参考文献(0)
  • 二级参考文献(4)
2007(1)
  • 参考文献(0)
  • 二级参考文献(1)
2008(5)
  • 参考文献(0)
  • 二级参考文献(5)
2009(4)
  • 参考文献(0)
  • 二级参考文献(4)
2010(2)
  • 参考文献(0)
  • 二级参考文献(2)
2011(4)
  • 参考文献(1)
  • 二级参考文献(3)
2012(3)
  • 参考文献(0)
  • 二级参考文献(3)
2013(6)
  • 参考文献(0)
  • 二级参考文献(6)
2014(5)
  • 参考文献(0)
  • 二级参考文献(5)
2015(10)
  • 参考文献(0)
  • 二级参考文献(10)
2016(8)
  • 参考文献(0)
  • 二级参考文献(8)
2017(14)
  • 参考文献(1)
  • 二级参考文献(13)
2018(8)
  • 参考文献(2)
  • 二级参考文献(6)
2019(6)
  • 参考文献(6)
  • 二级参考文献(0)
2020(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
命名实体识别
BERT
自注意力机制
深度学习
条件随机场
自然语言处理
双向长短期记忆网络
序列标注
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
智能系统学报
双月刊
1673-4785
23-1538/TP
大16开
哈尔滨市南岗区南通大街145-1号楼
2006
chi
出版文献量(篇)
2770
总下载数(次)
11
论文1v1指导