基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
针对文本相似性匹配任务,该文提出了一种大规模预训练模型融合外部知识库的方法.该方法分为三阶段:基础语言模型预训练阶段、外部知识库学习任务生成及联合训练阶段、下游任务微调阶段.在该文中探讨了方法的设计原理和原则.面向第二阶段,利用WordNet语言知识库生成学习任务,提升了现有BERT模型的性能.在第三阶段,针对相似度匹配任务进行微调.该文还试验了对知识库生成的学习任务和引入的外部任务进行联合训练,通过在微软公司提出的MT-DNN模型基础上取得进一步的性能提升,证明了知识库学习任务联合强化的可行性.此外,该文还探讨和验证了生成学习任务时结合下游任务特定知识,以在下游任务无法微调时改进模型性能的方法.
推荐文章
支持智能搜索的自扩展知识库模型的研究和设计
自然语言处理
知识获取
知识库
语义理解
OWL
内容知识库数据模型研究
非结构化数据
内容知识库
内容知识库模型
内容管理系统
本体知识库的自然语言查询重写研究
本体
知识库
自然语言处理
查询重写
小麦测土配方施肥专家系统知识库的构建
小麦施肥
专家系统
知识库
测土配方
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 结合预训练模型和语言知识库的文本匹配方法
来源期刊 中文信息学报 学科 工学
关键词 文本匹配 预训练模型 语言知识库融合
年,卷(期) 2020,(2) 所属期刊栏目 信息抽取与文本挖掘
研究方向 页码范围 63-72
页数 10页 分类号 TP391
字数 7069字 语种 中文
DOI 10.3969/j.issn.1003-0077.2020.02.008
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (2)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1988(1)
  • 参考文献(1)
  • 二级参考文献(0)
2002(1)
  • 参考文献(1)
  • 二级参考文献(0)
2020(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
文本匹配
预训练模型
语言知识库融合
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
中文信息学报
月刊
1003-0077
11-2325/N
16开
北京海淀区中关村南四街4号
1986
chi
出版文献量(篇)
2723
总下载数(次)
5
总被引数(次)
45413
相关基金
国家自然科学基金
英文译名:the National Natural Science Foundation of China
官方网址:http://www.nsfc.gov.cn/
项目类型:青年科学基金项目(面上项目)
学科类型:数理科学
论文1v1指导