作者:
基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
在中文自然语言处理领域中,分词是非常重要的步骤之一,它是关键词抽取、文本自动摘要、文本聚类的基础,分词结果的好坏直接影响进一步文本处理的准确性.近年来随着微博平台、直播平台、朋友圈等自由舆情平台的兴起,大量不规范使用的舆情文本尤其是不断出现的新词给分词结果的准确性带来了巨大的挑战,新词发现成为分词算法必须解决的问题.为解决在新词发现过程中,新词整体数据体量小、新词用法灵活以及过度合并词语易形成短语块等问题,本文提出了结合关联置信度与结巴分词的新词发现算法,该算法以结巴分词的初步分词结果为基础,通过计算词语与其左右邻接词集中各个词语之间的关联置信度,将被错误拆分的词语合并成候选新词,并通过切分连接词以防止多个词语被连接成短语的情况出现.以微博言论数据进行测试的实验表明,相比于其它基于置信度的分词方法结果,本文提出的算法可以大幅度提升发现新词尤其是命名实体、网络用语的准确率,在确保新词语义完整的前提下降低新词长度,并且在少量测试语料的情境下,本文提出的算法对低频新词依然具有识别能力.
推荐文章
基于支持度-置信度框架的负关联规则研究
关联规则
支持度
置信度
负关联规则
正、负关联规则间的置信度关系研究
负关联规则
置信度
支持度
基于词内部结合度和边界自由度的新词发现
新词发现
内部结合度
边界自由度
博客语料的新词发现方法
新词
词串统计
上下文分析
分词
候选词
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 结合关联置信度与结巴分词的新词发现算法
来源期刊 计算机系统应用 学科
关键词 自然语言处理 分词 置信度 新词发现 命名实体
年,卷(期) 2020,(5) 所属期刊栏目 软件技术·算法
研究方向 页码范围 144-151
页数 8页 分类号
字数 9596字 语种 中文
DOI
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (80)
共引文献  (17)
参考文献  (14)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1996(1)
  • 参考文献(0)
  • 二级参考文献(1)
2000(1)
  • 参考文献(0)
  • 二级参考文献(1)
2001(1)
  • 参考文献(0)
  • 二级参考文献(1)
2002(2)
  • 参考文献(0)
  • 二级参考文献(2)
2004(7)
  • 参考文献(0)
  • 二级参考文献(7)
2006(2)
  • 参考文献(0)
  • 二级参考文献(2)
2007(2)
  • 参考文献(0)
  • 二级参考文献(2)
2008(3)
  • 参考文献(0)
  • 二级参考文献(3)
2009(5)
  • 参考文献(0)
  • 二级参考文献(5)
2010(6)
  • 参考文献(0)
  • 二级参考文献(6)
2011(6)
  • 参考文献(0)
  • 二级参考文献(6)
2012(7)
  • 参考文献(1)
  • 二级参考文献(6)
2013(10)
  • 参考文献(0)
  • 二级参考文献(10)
2014(10)
  • 参考文献(1)
  • 二级参考文献(9)
2015(9)
  • 参考文献(1)
  • 二级参考文献(8)
2016(7)
  • 参考文献(0)
  • 二级参考文献(7)
2017(9)
  • 参考文献(5)
  • 二级参考文献(4)
2018(6)
  • 参考文献(6)
  • 二级参考文献(0)
2020(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
自然语言处理
分词
置信度
新词发现
命名实体
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机系统应用
月刊
1003-3254
11-2854/TP
大16开
北京中关村南四街4号
82-558
1991
chi
出版文献量(篇)
10349
总下载数(次)
20
总被引数(次)
57078
论文1v1指导