基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
逐字分词法是以汉语词典为基础对中文语句通过匹配进行切分的方法.该方法在分词中无法解决交叉歧义与组合歧义带来的问题.本文以词典分词为基础,从序列标注的角度,在逐字匹配过程中使用CRFs标注模型提供辅助决策,由此来处理歧义问题.经实验和分析,该方法较传统的CRFs模型分词法和词典分词,更适合对分词速率及正确率都有一定要求的系统.
推荐文章
基于LSTM网络的中文地址分词法的设计与实现
中文地址
分词
卡短时记忆
未标记数据集
基于词典和词频的中文分词方法
中文分词
歧义消除
词频
基于LSTM网络的序列标注中文分词法
中文分词
LSTM
字嵌入
自然语言处理
基于CRFs和歧义模型的越南语分词
条件随机场模型
越南语分词
词法
基本特征
最大熵
歧义模型
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 结合CRFs的词典分词法
来源期刊 计算机系统应用 学科 工学
关键词 条件随机场 分词 交叉歧义 组合歧义 逐字匹配
年,卷(期) 2010,(11) 所属期刊栏目
研究方向 页码范围 115-118
页数 分类号 TP3
字数 3346字 语种 中文
DOI 10.3969/j.issn.1003-3254.2010.11.026
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 汪成亮 重庆大学计算机学院 64 655 13.0 21.0
2 张硕果 重庆大学计算机学院 2 2 1.0 1.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (24)
共引文献  (235)
参考文献  (7)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
1973(1)
  • 参考文献(1)
  • 二级参考文献(0)
1989(2)
  • 参考文献(0)
  • 二级参考文献(2)
1992(1)
  • 参考文献(0)
  • 二级参考文献(1)
1994(1)
  • 参考文献(0)
  • 二级参考文献(1)
1998(2)
  • 参考文献(0)
  • 二级参考文献(2)
1999(1)
  • 参考文献(0)
  • 二级参考文献(1)
2000(3)
  • 参考文献(0)
  • 二级参考文献(3)
2001(2)
  • 参考文献(0)
  • 二级参考文献(2)
2002(1)
  • 参考文献(0)
  • 二级参考文献(1)
2003(2)
  • 参考文献(0)
  • 二级参考文献(2)
2004(5)
  • 参考文献(1)
  • 二级参考文献(4)
2006(6)
  • 参考文献(3)
  • 二级参考文献(3)
2007(2)
  • 参考文献(0)
  • 二级参考文献(2)
2009(2)
  • 参考文献(2)
  • 二级参考文献(0)
2010(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
条件随机场
分词
交叉歧义
组合歧义
逐字匹配
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
计算机系统应用
月刊
1003-3254
11-2854/TP
大16开
北京中关村南四街4号
82-558
1991
chi
出版文献量(篇)
10349
总下载数(次)
20
总被引数(次)
57078
论文1v1指导