基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
深度学习模型应用于自然语言处理任务时依赖大型、高质量的人工标注数据集.为降低深度学习模型对大型数据集的依赖,提出一种基于BERT的中文科技自然语言处理预训练模型ALICE.通过对遮罩语言模型进行改进并将其与命名实体级遮罩相结合,改善基础模型在下游任务中的表现,使其学习到的语言表征更贴合中文的语言特性.实验结果表明,与BERT模型相比,ALICE模型对于中文科技文本的分类准确率和命名实体识别的F1值分别提高1.2%和0.8%.
推荐文章
依托文本直指语言表达训练
生活情境
拓展积累
大胆联想
自由练笔
依托文本直指语言表达训练
文本
语言表达
训练
一种面向文本分类的特征向量优化方法
机器学习
Mahout
特征向量
向量优化
文本分类
一种面向机械领域文本分类器的设计
机械领域
灰色关联分析
贝叶斯分类器
特征选择
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 ALICE:一种面向中文科技文本分析的预训练语言表征模型
来源期刊 计算机工程 学科 工学
关键词 预训练模型 迁移学习 BERT模型 文本分类 命名实体识别 自然语言推断
年,卷(期) 2020,(2) 所属期刊栏目 人工智能与模式识别
研究方向 页码范围 48-52,58
页数 6页 分类号 TP391
字数 4392字 语种 中文
DOI 10.19678/j.issn.1000-3428.0055246
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 王英杰 中国电子科技集团公司第三十二研究所 2 0 0.0 0.0
2 谢彬 中国电子科技集团公司第三十二研究所 12 42 4.0 6.0
3 李宁波 中国电子科技集团公司第三十二研究所 6 5 1.0 1.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (16)
共引文献  (6)
参考文献  (6)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2005(3)
  • 参考文献(0)
  • 二级参考文献(3)
2008(1)
  • 参考文献(0)
  • 二级参考文献(1)
2009(1)
  • 参考文献(0)
  • 二级参考文献(1)
2011(2)
  • 参考文献(1)
  • 二级参考文献(1)
2012(2)
  • 参考文献(0)
  • 二级参考文献(2)
2013(2)
  • 参考文献(0)
  • 二级参考文献(2)
2014(1)
  • 参考文献(0)
  • 二级参考文献(1)
2015(2)
  • 参考文献(1)
  • 二级参考文献(1)
2016(2)
  • 参考文献(1)
  • 二级参考文献(1)
2017(3)
  • 参考文献(0)
  • 二级参考文献(3)
2018(1)
  • 参考文献(1)
  • 二级参考文献(0)
2019(2)
  • 参考文献(2)
  • 二级参考文献(0)
2020(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
预训练模型
迁移学习
BERT模型
文本分类
命名实体识别
自然语言推断
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机工程
月刊
1000-3428
31-1289/TP
大16开
上海市桂林路418号
4-310
1975
chi
出版文献量(篇)
31987
总下载数(次)
53
总被引数(次)
317027
论文1v1指导