基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
在基于神经网络的中文命名实体识别过程中,字的向量化表示是重要步骤,而传统的词向量表示方法只是将字映射为单一向量,无法表征字的多义性.针对该问题,通过嵌入BERT预训练语言模型,构建BERT-BiGRU-CRF模型用于表征语句特征.利用具有双向Transformer结构的BERT预训练语言模型增强字的语义表示,根据其上下文动态生成语义向量.在此基础上,将字向量序列输入BiGRU-CRF模型中进行训练,包括训练整个模型和固定BERT只训练BiGRU-CRF2种方式.在MSRA语料上的实验结果表明,该模型2种训练方式的F1值分别达到95.43%和94.18%,优于BiGRU-CRF、Radical-BiLSTM-CRF和Lattice-LSTM-CRF模型.
推荐文章
基于位置敏感Embedding的中文命名实体识别
命名实体识别
表示学习
Embedding
多尺度聚类
条件随机场
基于BLSTM-CRF中文领域命名实体识别框架设计
BLSTM-CRF
CBOW
Boson
命名实体识别
基于中文维基百科的命名实体消歧方法
命名实体消歧
词义消歧
中文维基百科
中文信息处理
一种基于命名实体识别的需求跟踪方法
需求跟踪
命名实体识别
语义聚类
自然语言处理
权重计算
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于BERT嵌入的中文命名实体识别方法
来源期刊 计算机工程 学科 工学
关键词 中文命名实体识别 BERT模型 BiGRU模型 预训练语言模型 条件随机场
年,卷(期) 2020,(4) 所属期刊栏目 人工智能与模式识别
研究方向 页码范围 40-45,52
页数 7页 分类号 TP391.1
字数 4690字 语种 中文
DOI 10.19678/j.issn.1000-3428.0054272
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 董文永 武汉大学计算机学院 33 310 10.0 16.0
2 杨飘 武汉大学计算机学院 2 10 2.0 2.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (39)
共引文献  (35)
参考文献  (9)
节点文献
引证文献  (6)
同被引文献  (26)
二级引证文献  (0)
1967(1)
  • 参考文献(0)
  • 二级参考文献(1)
1997(4)
  • 参考文献(1)
  • 二级参考文献(3)
2002(1)
  • 参考文献(0)
  • 二级参考文献(1)
2003(1)
  • 参考文献(0)
  • 二级参考文献(1)
2005(2)
  • 参考文献(1)
  • 二级参考文献(1)
2006(1)
  • 参考文献(0)
  • 二级参考文献(1)
2007(1)
  • 参考文献(0)
  • 二级参考文献(1)
2009(3)
  • 参考文献(0)
  • 二级参考文献(3)
2011(3)
  • 参考文献(1)
  • 二级参考文献(2)
2012(1)
  • 参考文献(0)
  • 二级参考文献(1)
2013(4)
  • 参考文献(0)
  • 二级参考文献(4)
2014(7)
  • 参考文献(1)
  • 二级参考文献(6)
2015(6)
  • 参考文献(0)
  • 二级参考文献(6)
2016(4)
  • 参考文献(0)
  • 二级参考文献(4)
2017(3)
  • 参考文献(0)
  • 二级参考文献(3)
2018(4)
  • 参考文献(3)
  • 二级参考文献(1)
2019(2)
  • 参考文献(2)
  • 二级参考文献(0)
2020(6)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(6)
  • 二级引证文献(0)
2020(6)
  • 引证文献(6)
  • 二级引证文献(0)
研究主题发展历程
节点文献
中文命名实体识别
BERT模型
BiGRU模型
预训练语言模型
条件随机场
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机工程
月刊
1000-3428
31-1289/TP
大16开
上海市桂林路418号
4-310
1975
chi
出版文献量(篇)
31987
总下载数(次)
53
总被引数(次)
317027
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
论文1v1指导