基本信息来源于合作网站,原文需代理用户跳转至来源网站获取       
摘要:
根据用户定义的某一主题,在爬虫算法中加入反作弊思想后,用爬虫算法遍历网络,收集与主题相关的页面进行智能分析,同时将文本过滤转化为文本分类,为了增强通用性,在算法中加入了松弛变量,最后在NB分类个器上验证算法的性能。试验表明,分类精度达到将近90%。
推荐文章
基于Rough集的web文本分类研究
web文本分类
Rough集
属性约简
决策表
基于支持向量机的Web文本分类方法
支持向量机
特征提取
Web文本
文本分类
朴素贝叶斯算法和SVM算法在Web文本分类中的效率分析
Web分类系统
朴素贝叶斯算法
SVM算法
效率分析
文本分类技术研究
文本分类
文本模型
数据挖掘
内容分析
关键词云
关键词热度
相关文献总数  
(/次)
(/年)
文献信息
篇名 Web文本分类中的反作弊研究
来源期刊 网友世界 学科 工学
关键词 主题爬虫 文本分类 反作弊 松弛变量
年,卷(期) wysjb_2013,(18) 所属期刊栏目
研究方向 页码范围 7-7
页数 1页 分类号 TP181
字数 语种
DOI
五维指标
作者信息
序号 姓名 单位 发文数 被引次数 H指数 G指数
1 贾晓强 19 50 4.0 6.0
2 付敬鼎 2 0 0.0 0.0
3 张建勇' 1 0 0.0 0.0
传播情况
(/次)
(/年)
引文网络
引文网络
二级参考文献  (0)
共引文献  (0)
参考文献  (17)
节点文献
引证文献  (0)
同被引文献  (0)
二级引证文献  (0)
2005(4)
  • 参考文献(4)
  • 二级参考文献(0)
2009(1)
  • 参考文献(1)
  • 二级参考文献(0)
2013(0)
  • 参考文献(0)
  • 二级参考文献(0)
  • 引证文献(0)
  • 二级引证文献(0)
研究主题发展历程
节点文献
主题爬虫
文本分类
反作弊
松弛变量
研究起点
研究来源
研究分支
研究去脉
引文网络交叉学科
相关学者/机构
期刊影响力
网友世界
半月刊
1671-7074
11-4852/TP
16开
北京市海淀区91-103信箱
2000
chi
出版文献量(篇)
26027
总下载数(次)
6
论文1v1指导