作者:
基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
中文分词是自然语言处理的重要预处理操作.随着非结构化文本的大量产生,中文分词技术的研究尤为重要.结巴分词适用于中文分词,具有完整的技术路线,且Python语言提供了结巴分词接口.使用Python实现中文结巴分词算法简单,准确率较高,能够为自然语言处理提供重要保障.
推荐文章
基于.NET的中文分词系统设计与实现
中文分词
.NET
语料库
最大匹配算法
基于LSTM网络的中文地址分词法的设计与实现
中文地址
分词
卡短时记忆
未标记数据集
基于词典和词频的中文分词方法
中文分词
歧义消除
词频
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 基于Python的中文结巴分词技术实现
来源期刊 信息与电脑 学科 工学
关键词 Python 结巴分词 自然语言处理
年,卷(期) 2019,(18) 所属期刊栏目 算法语言
研究方向 页码范围 38-39,42
页数 3页 分类号 TP391.1
字数 语种 中文
DOI
五维指标
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (11)
共引文献  (3)
参考文献  (2)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2015(1)
  • 参考文献(0)
  • 二级参考文献(1)
2016(1)
  • 参考文献(0)
  • 二级参考文献(1)
2017(6)
  • 参考文献(0)
  • 二级参考文献(6)
2018(4)
  • 参考文献(1)
  • 二级参考文献(3)
2019(1)
  • 参考文献(1)
  • 二级参考文献(0)
2019(1)
  • 参考文献(1)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
Python
结巴分词
自然语言处理
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
信息与电脑
半月刊
1003-9767
11-2697/TP
北京市东城区北河沿大街79号
chi
出版文献量(篇)
16624
总下载数(次)
72
总被引数(次)
19907
  • 期刊分类
  • 期刊(年)
  • 期刊(期)
  • 期刊推荐
论文1v1指导