基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
目前的搜索引擎仍然存在"重形式,轻语义"的问题,无法做到对搜索关键词和文本的深层次语义理解,因此语义检索成为当前搜索引擎中亟需解决的问题.为了提高搜索引擎的语义理解能力,该文提出一种语义相关度的计算方法.首先,标注了金融类新闻标题实体与新闻正文语义相关度语料1万条,然后建立新闻实体与正文语义相关度计算的BERTCA(Bidirectional Encoder Representation from Transformers Co-Attention)模型,通过使用BERT预训练模型,综合考虑细粒度的实体和粗粒度的正文的语义信息,然后经过协同注意力,实现实体与正文的语义匹配,不仅能计算出金融新闻实体与新闻正文之间的相关度,还能根据相关度阈值来判定相关度类别,实验表明该模型在1万条标注语料上准确率超过95%,优于目前主流模型,最后通过具体搜索示例展示了该模型的优秀性能.
推荐文章
MD4:一种综合的跨本体实体语义相似度计算方法
元数据模型
本体
语义相似度
MD4模型
自然语言语义相关度计算模型及其权重系数研究
语义相关度计算模型
权重系数
简单语义单元
简单子句
一种基于语义网的相似度计算模型
语义网
相似度计算
搜索引擎
一种基于语义网的相似度计算模型
语义网
相似度计算
搜索引擎
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于BERTCA的新闻实体与正文语义相关度计算模型
来源期刊 中文信息学报 学科 工学
关键词 语义相关度计算 BERT模型 协同注意力机制
年,卷(期) 2022,(3) 所属期刊栏目 信息检索与问答|Information Retrieval and Question Answering
研究方向 页码范围 109-119
页数 11页 分类号 TP391
字数 语种 中文
DOI 10.3969/j.issn.1003-0077.2022.03.013
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (0)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2022(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
语义相关度计算
BERT模型
协同注意力机制
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
中文信息学报
月刊
1003-0077
11-2325/N
16开
北京海淀区中关村南四街4号
1986
chi
出版文献量(篇)
2723
总下载数(次)
5
总被引数(次)
45413
论文1v1指导